Close Menu
Digpu News  Agency Feed
    Facebook X (Twitter) Instagram
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Facebook X (Twitter) Instagram
    Digpu News  Agency Feed
    Subscribe
    Monday, January 12
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Digpu News  Agency Feed
    Home»Tamil»ஜெமினி அறிக்கைக்குப் பிறகு கூகிளின் AI பாதுகாப்பு வாக்குறுதிகள் ஆய்வுக்கு உட்படுத்தப்படுகின்றன

    ஜெமினி அறிக்கைக்குப் பிறகு கூகிளின் AI பாதுகாப்பு வாக்குறுதிகள் ஆய்வுக்கு உட்படுத்தப்படுகின்றன

    DeskBy DeskAugust 15, 2025No Comments3 Mins Read
    Share Facebook Twitter Pinterest Copy Link LinkedIn Tumblr Email VKontakte Telegram
    Share
    Facebook Twitter Pinterest Email Copy Link

    கூகிள் தனது முதன்மை செயற்கை நுண்ணறிவு மாதிரியான ஜெமினி 2.5 ப்ரோ குறித்த பாதுகாப்பு ஆய்வறிக்கையைப் பகிர்ந்து கொண்டது. இது முக்கிய அபாயங்களை விவரிக்காமல் விட்டுவிட்டதாக நிபுணர்கள் கூறுகின்றனர்.

    நிறுவனம் வாடிக்கையாளர்களுக்கு ஜெமினி 2.5 ப்ரோவை வெளியிட்ட பல வாரங்களுக்குப் பிறகு, வியாழக்கிழமை தொழில்நுட்ப ஆய்வறிக்கையை வெளியிட்டது. இந்த ஆவணம் கூகிள் மாதிரியில் நடத்திய உள் சோதனைகளை பட்டியலிடுகிறது, ஆனால் அதிக சுமை அல்லது தவறான பயன்பாட்டிற்குள் கணினி எவ்வாறு செயல்படுகிறது என்பது குறித்த சில உண்மைகளை வழங்குகிறது. ஆய்வறிக்கையை மதிப்பாய்வு செய்த ஆராய்ச்சியாளர்கள் டெக் க்ரஞ்சிடம், காணாமல் போன விவரங்கள் ஜெமினி 2.5 ப்ரோ பரந்த பயன்பாட்டிற்கு உண்மையிலேயே பாதுகாப்பானதா என்பதை தீர்மானிப்பதை கடினமாக்குகின்றன என்று கூறினார்.

    மேம்பட்ட AI அமைப்புகள் என்ன செய்ய முடியும் மற்றும் என்ன செய்ய முடியாது என்பதை பொதுமக்கள் அறிந்து கொள்ளும் முக்கிய வழிகளில் தொழில்நுட்ப அறிக்கைகள் ஒன்றாகும். ஒரு மாதிரி எங்கு தோல்வியடைகிறது, எங்கு அது தவறாகப் பயன்படுத்தப்படலாம் என்பதை ஒரு முழுமையான அறிக்கை பெரும்பாலும் காட்டுகிறது. பல AI ஆராய்ச்சியாளர்கள் இந்த ஆய்வறிக்கைகளை ஒரு நிறுவனத்தின் பாதுகாப்பு கூற்றுக்களை ஆதரிக்கும் நேர்மையான முயற்சிகளாகக் கருதுகின்றனர்.

    கூகிள் பாதுகாப்பு அறிக்கையை வித்தியாசமாகக் கையாளுகிறது.

    ஒரு மாதிரி இனி “பரிசோதனை” என்று குறிக்கப்படாத பின்னரே கூகிள் ஒரு அறிக்கையை வெளியிடுகிறது, மேலும் அது சில “ஆபத்தான திறன்” கண்டுபிடிப்புகளை ஒரே நேரத்தில் வெளியிடப்படாத தனி தணிக்கைக்கு நகர்த்துகிறது. இதன் விளைவாக, கூகிள் சோதித்த ஒவ்வொரு அச்சுறுத்தலையும் பொது அறிக்கை உள்ளடக்குவதில்லை.

    புதிய ஜெமினி 2.5 ப்ரோ ஆவணம் வரையறுக்கப்பட்ட வெளிப்படுத்தல்களின் ஒரு வெளிப்படையான வழக்கு என்று பல ஆய்வாளர்கள் தெரிவித்தனர். இந்த அறிக்கை கூகிளின் எல்லைப்புற பாதுகாப்பு கட்டமைப்பு அல்லது FSF ஐ ஒருபோதும் குறிப்பிடவில்லை என்பதையும் அவர்கள் கவனித்தனர், இது “கடுமையான தீங்கு விளைவிக்கும்” எதிர்கால AI சக்திகளைக் கண்டறிய நிறுவனம் கடந்த ஆண்டு அறிவித்த ஒரு கொள்கையாகும்.

    “இந்த அறிக்கை மிகவும் குறைவாக உள்ளது, குறைந்தபட்ச தகவல்களைக் கொண்டுள்ளது, மேலும் மாதிரி பொதுவில் வெளியிடப்பட்ட சில வாரங்களுக்குப் பிறகு வந்தது,” என்று AI கொள்கை மற்றும் மூலோபாயத்திற்கான நிறுவனத்தின் இணை நிறுவனர் பீட்டர் வைல்ட்ஃபோர்ட் கூறினார். “கூகிள் தனது சொந்த வாக்குறுதிகளை நிறைவேற்றுகிறதா என்பதை உறுதிப்படுத்த முடியாது, எனவே அதன் மாதிரிகளின் பாதுகாப்பு மற்றும் பாதுகாப்பை மதிப்பிடுவது சாத்தியமில்லை.”

    செக்யூர் AI திட்டத்தின் இணை நிறுவனர் தாமஸ் உட்சைட், எந்தவொரு ஆய்வறிக்கையும் வெளிவந்ததில் மகிழ்ச்சி அடைவதாகவும், இருப்பினும் நிலையான பின்தொடர்தல்களை வெளியிடும் கூகிளின் திட்டத்தை அவர் சந்தேகிப்பதாகவும் கூறினார். ஆபத்தான திறன் சோதனைகளின் முடிவுகளை நிறுவனம் கடைசியாகப் பகிர்ந்து கொண்டது ஜூன் 2024 என்றும், அந்த ஆய்வறிக்கை அதே ஆண்டு பிப்ரவரியில் அறிவிக்கப்பட்ட ஒரு மாதிரியை உள்ளடக்கியது என்றும் அவர் சுட்டிக்காட்டினார்.

    கூகிள் கடந்த வாரம் வெளியிட்ட மெலிதான மற்றும் வேகமான மாடலான ஜெமினி 2.5 ஃபிளாஷிற்கான பாதுகாப்பு ஆவணத்தை பார்வையாளர்கள் காணாதபோது நம்பிக்கை மேலும் சரிந்தது. ஒரு நிறுவனத்தின் செய்தித் தொடர்பாளர் ஒரு ஃபிளாஷ் ஆவணம் “விரைவில் வருகிறது” என்று கூறினார்.

    “அடிக்கடி புதுப்பிப்புகளை வழங்கத் தொடங்குவதற்கான உண்மையான வாக்குறுதியாக இது இருக்கும் என்று நான் நம்புகிறேன்,” என்று உட்சைட் கூறினார். “அந்த புதுப்பிப்புகளில் இன்னும் பொதுமக்களைச் சென்றடையாத மாடல்களுக்கான முடிவுகள் இருக்க வேண்டும், ஏனெனில் அந்த மாதிரிகள் கடுமையான அபாயங்களை ஏற்படுத்தக்கூடும்.”

    கூகிள் இப்போது வெளிப்படைத்தன்மையில் குறைவுபடுகிறது

    மெட்டாவின் புதிய லாமா 4 மாடல்களுக்கான பாதுகாப்பு குறிப்பு சில பக்கங்களை மட்டுமே இயக்குகிறது, அதே நேரத்தில் ஓபன்ஏஐ அதன் ஜிபிடி‑4.1 தொடருக்கான எந்த அறிக்கையையும் வெளியிட வேண்டாம் என்று தேர்வு செய்தது.

    விவரங்களின் பற்றாக்குறை ஒரு பதட்டமான நேரத்தில் வருகிறது. இரண்டு ஆண்டுகளுக்கு முன்பு, கூகிள் அமெரிக்க அரசாங்கத்திடம், வரம்பிற்குள் உள்ள ஒவ்வொரு “குறிப்பிடத்தக்க” AI மாதிரிக்கும் பாதுகாப்பு ஆவணங்களை இடுகையிடும் என்று கூறியது.” நிறுவனம் மற்ற நாடுகளில் உள்ள அதிகாரிகளுக்கு இதேபோன்ற உறுதிமொழிகளை வழங்கியது, அதன் AI தயாரிப்புகள் குறித்து “பொது வெளிப்படைத்தன்மையை” வழங்குவதாகக் கூறியது.

    ஜனநாயகம் மற்றும் தொழில்நுட்ப மையத்தின் AI ஆளுகைக்கான மூத்த ஆலோசகர் கெவின் பேங்க்ஸ்டன், முன்னணி ஆய்வகங்களின் வெளியீடுகளை பாதுகாப்பில் “கீழே செல்லும் பந்தயம்” என்று அழைத்தார்.

    “OpenAI போன்ற போட்டி ஆய்வகங்கள் வெளியீட்டிற்கு முன் பாதுகாப்பு சோதனை நேரத்தை மாதக்கணக்கில் குறைத்துள்ளன என்ற அறிக்கைகளுடன் இணைந்து, கூகிளின் சிறந்த மாடலுக்கான இந்த அற்ப ஆவணங்கள், நிறுவனங்கள் தங்கள் மாடல்களை சந்தைக்கு விரைவதால், AI பாதுகாப்பு மற்றும் வெளிப்படைத்தன்மையில் அடிமட்டத்திற்கு செல்லும் ஒரு பந்தயத்தின் தொந்தரவான கதையைச் சொல்கின்றன,” என்று அவர் மேலும் கூறினார்.

    கூகிள் அதன் பாதுகாப்புப் பணிகளில் பெரும்பாலானவை மூடிய கதவுகளுக்குப் பின்னால் நடப்பதாகக் கூறுகிறது. எந்தவொரு பொது வெளியீட்டிற்கும் முன் “எதிரி சிவப்பு அணி” உட்பட ஒவ்வொரு மாடலும் கடுமையான சோதனைகளுக்கு உட்படுவதாக நிறுவனம் கூறுகிறது.

    மூலம்: கிரிப்டோபாலிட்டன் / டிக்பு நியூஸ்டெக்ஸ்

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Telegram Copy Link
    Previous Articleவர்த்தக ஒப்பந்தங்களுக்கு சீனா முயற்சி செய்து வருவதாக டிரம்ப் கூறுகிறார்.
    Next Article முக்கிய அளவீடுகளில் எத்தேரியம் (ETH) மற்றும் சோலானா (SOL) ஆகியவற்றை விட முட்டும் ஃபைனான்ஸ் (MUTM) சிறப்பாக செயல்படுகிறது.
    © 2026 ThemeSphere. Designed by ThemeSphere.
    • Home
    • About
    • Team
    • World
    • Buy now!

    Type above and press Enter to search. Press Esc to cancel.