கூகிள் தனது முதன்மை செயற்கை நுண்ணறிவு மாதிரியான ஜெமினி 2.5 ப்ரோ குறித்த பாதுகாப்பு ஆய்வறிக்கையைப் பகிர்ந்து கொண்டது. இது முக்கிய அபாயங்களை விவரிக்காமல் விட்டுவிட்டதாக நிபுணர்கள் கூறுகின்றனர்.
நிறுவனம் வாடிக்கையாளர்களுக்கு ஜெமினி 2.5 ப்ரோவை வெளியிட்ட பல வாரங்களுக்குப் பிறகு, வியாழக்கிழமை தொழில்நுட்ப ஆய்வறிக்கையை வெளியிட்டது. இந்த ஆவணம் கூகிள் மாதிரியில் நடத்திய உள் சோதனைகளை பட்டியலிடுகிறது, ஆனால் அதிக சுமை அல்லது தவறான பயன்பாட்டிற்குள் கணினி எவ்வாறு செயல்படுகிறது என்பது குறித்த சில உண்மைகளை வழங்குகிறது. ஆய்வறிக்கையை மதிப்பாய்வு செய்த ஆராய்ச்சியாளர்கள் டெக் க்ரஞ்சிடம், காணாமல் போன விவரங்கள் ஜெமினி 2.5 ப்ரோ பரந்த பயன்பாட்டிற்கு உண்மையிலேயே பாதுகாப்பானதா என்பதை தீர்மானிப்பதை கடினமாக்குகின்றன என்று கூறினார்.
மேம்பட்ட AI அமைப்புகள் என்ன செய்ய முடியும் மற்றும் என்ன செய்ய முடியாது என்பதை பொதுமக்கள் அறிந்து கொள்ளும் முக்கிய வழிகளில் தொழில்நுட்ப அறிக்கைகள் ஒன்றாகும். ஒரு மாதிரி எங்கு தோல்வியடைகிறது, எங்கு அது தவறாகப் பயன்படுத்தப்படலாம் என்பதை ஒரு முழுமையான அறிக்கை பெரும்பாலும் காட்டுகிறது. பல AI ஆராய்ச்சியாளர்கள் இந்த ஆய்வறிக்கைகளை ஒரு நிறுவனத்தின் பாதுகாப்பு கூற்றுக்களை ஆதரிக்கும் நேர்மையான முயற்சிகளாகக் கருதுகின்றனர்.
கூகிள் பாதுகாப்பு அறிக்கையை வித்தியாசமாகக் கையாளுகிறது.
ஒரு மாதிரி இனி “பரிசோதனை” என்று குறிக்கப்படாத பின்னரே கூகிள் ஒரு அறிக்கையை வெளியிடுகிறது, மேலும் அது சில “ஆபத்தான திறன்” கண்டுபிடிப்புகளை ஒரே நேரத்தில் வெளியிடப்படாத தனி தணிக்கைக்கு நகர்த்துகிறது. இதன் விளைவாக, கூகிள் சோதித்த ஒவ்வொரு அச்சுறுத்தலையும் பொது அறிக்கை உள்ளடக்குவதில்லை.
புதிய ஜெமினி 2.5 ப்ரோ ஆவணம் வரையறுக்கப்பட்ட வெளிப்படுத்தல்களின் ஒரு வெளிப்படையான வழக்கு என்று பல ஆய்வாளர்கள் தெரிவித்தனர். இந்த அறிக்கை கூகிளின் எல்லைப்புற பாதுகாப்பு கட்டமைப்பு அல்லது FSF ஐ ஒருபோதும் குறிப்பிடவில்லை என்பதையும் அவர்கள் கவனித்தனர், இது “கடுமையான தீங்கு விளைவிக்கும்” எதிர்கால AI சக்திகளைக் கண்டறிய நிறுவனம் கடந்த ஆண்டு அறிவித்த ஒரு கொள்கையாகும்.
“இந்த அறிக்கை மிகவும் குறைவாக உள்ளது, குறைந்தபட்ச தகவல்களைக் கொண்டுள்ளது, மேலும் மாதிரி பொதுவில் வெளியிடப்பட்ட சில வாரங்களுக்குப் பிறகு வந்தது,” என்று AI கொள்கை மற்றும் மூலோபாயத்திற்கான நிறுவனத்தின் இணை நிறுவனர் பீட்டர் வைல்ட்ஃபோர்ட் கூறினார். “கூகிள் தனது சொந்த வாக்குறுதிகளை நிறைவேற்றுகிறதா என்பதை உறுதிப்படுத்த முடியாது, எனவே அதன் மாதிரிகளின் பாதுகாப்பு மற்றும் பாதுகாப்பை மதிப்பிடுவது சாத்தியமில்லை.”
செக்யூர் AI திட்டத்தின் இணை நிறுவனர் தாமஸ் உட்சைட், எந்தவொரு ஆய்வறிக்கையும் வெளிவந்ததில் மகிழ்ச்சி அடைவதாகவும், இருப்பினும் நிலையான பின்தொடர்தல்களை வெளியிடும் கூகிளின் திட்டத்தை அவர் சந்தேகிப்பதாகவும் கூறினார். ஆபத்தான திறன் சோதனைகளின் முடிவுகளை நிறுவனம் கடைசியாகப் பகிர்ந்து கொண்டது ஜூன் 2024 என்றும், அந்த ஆய்வறிக்கை அதே ஆண்டு பிப்ரவரியில் அறிவிக்கப்பட்ட ஒரு மாதிரியை உள்ளடக்கியது என்றும் அவர் சுட்டிக்காட்டினார்.
கூகிள் கடந்த வாரம் வெளியிட்ட மெலிதான மற்றும் வேகமான மாடலான ஜெமினி 2.5 ஃபிளாஷிற்கான பாதுகாப்பு ஆவணத்தை பார்வையாளர்கள் காணாதபோது நம்பிக்கை மேலும் சரிந்தது. ஒரு நிறுவனத்தின் செய்தித் தொடர்பாளர் ஒரு ஃபிளாஷ் ஆவணம் “விரைவில் வருகிறது” என்று கூறினார்.
“அடிக்கடி புதுப்பிப்புகளை வழங்கத் தொடங்குவதற்கான உண்மையான வாக்குறுதியாக இது இருக்கும் என்று நான் நம்புகிறேன்,” என்று உட்சைட் கூறினார். “அந்த புதுப்பிப்புகளில் இன்னும் பொதுமக்களைச் சென்றடையாத மாடல்களுக்கான முடிவுகள் இருக்க வேண்டும், ஏனெனில் அந்த மாதிரிகள் கடுமையான அபாயங்களை ஏற்படுத்தக்கூடும்.”
கூகிள் இப்போது வெளிப்படைத்தன்மையில் குறைவுபடுகிறது
மெட்டாவின் புதிய லாமா 4 மாடல்களுக்கான பாதுகாப்பு குறிப்பு சில பக்கங்களை மட்டுமே இயக்குகிறது, அதே நேரத்தில் ஓபன்ஏஐ அதன் ஜிபிடி‑4.1 தொடருக்கான எந்த அறிக்கையையும் வெளியிட வேண்டாம் என்று தேர்வு செய்தது.
விவரங்களின் பற்றாக்குறை ஒரு பதட்டமான நேரத்தில் வருகிறது. இரண்டு ஆண்டுகளுக்கு முன்பு, கூகிள் அமெரிக்க அரசாங்கத்திடம், வரம்பிற்குள் உள்ள ஒவ்வொரு “குறிப்பிடத்தக்க” AI மாதிரிக்கும் பாதுகாப்பு ஆவணங்களை இடுகையிடும் என்று கூறியது.” நிறுவனம் மற்ற நாடுகளில் உள்ள அதிகாரிகளுக்கு இதேபோன்ற உறுதிமொழிகளை வழங்கியது, அதன் AI தயாரிப்புகள் குறித்து “பொது வெளிப்படைத்தன்மையை” வழங்குவதாகக் கூறியது.
ஜனநாயகம் மற்றும் தொழில்நுட்ப மையத்தின் AI ஆளுகைக்கான மூத்த ஆலோசகர் கெவின் பேங்க்ஸ்டன், முன்னணி ஆய்வகங்களின் வெளியீடுகளை பாதுகாப்பில் “கீழே செல்லும் பந்தயம்” என்று அழைத்தார்.
“OpenAI போன்ற போட்டி ஆய்வகங்கள் வெளியீட்டிற்கு முன் பாதுகாப்பு சோதனை நேரத்தை மாதக்கணக்கில் குறைத்துள்ளன என்ற அறிக்கைகளுடன் இணைந்து, கூகிளின் சிறந்த மாடலுக்கான இந்த அற்ப ஆவணங்கள், நிறுவனங்கள் தங்கள் மாடல்களை சந்தைக்கு விரைவதால், AI பாதுகாப்பு மற்றும் வெளிப்படைத்தன்மையில் அடிமட்டத்திற்கு செல்லும் ஒரு பந்தயத்தின் தொந்தரவான கதையைச் சொல்கின்றன,” என்று அவர் மேலும் கூறினார்.
கூகிள் அதன் பாதுகாப்புப் பணிகளில் பெரும்பாலானவை மூடிய கதவுகளுக்குப் பின்னால் நடப்பதாகக் கூறுகிறது. எந்தவொரு பொது வெளியீட்டிற்கும் முன் “எதிரி சிவப்பு அணி” உட்பட ஒவ்வொரு மாடலும் கடுமையான சோதனைகளுக்கு உட்படுவதாக நிறுவனம் கூறுகிறது.
மூலம்: கிரிப்டோபாலிட்டன் / டிக்பு நியூஸ்டெக்ஸ்