செயற்கை நுண்ணறிவு நிறுவனத்தில் தனது பயணத்தைத் தொடரும்போது, பாதுகாப்பு சவால்களின் புதிய எல்லை திறக்கிறது. AI முகவர்கள், குறிப்பாக பெரிய மொழி மாதிரிகளால் இயக்கப்படுபவர்கள், மாயத்தோற்றம் (தவறான தகவல்களை உருவாக்குதல்) மற்றும் உடனடி ஊசி தாக்குதல்களுக்கு பாதிப்பு போன்ற அறியப்பட்ட செயல்பாட்டு வினோதங்களுடன் வருகிறார்கள் – உள்ளீட்டுத் தரவுகளுக்குள் மறைந்திருக்கும் தீங்கிழைக்கும் வழிமுறைகள் AI ஐ எதிர்பாராத செயல்களைச் செய்ய ஏமாற்றும் ஒரு நுட்பம்.
இவை வெறும் தத்துவார்த்த அபாயங்கள் அல்ல; அவை பெருநிறுவன அமைப்புகளை சமரசம் செய்வதற்கான சாத்தியமான நுழைவாயில்களைக் குறிக்கின்றன. இப்போது, ஆந்த்ரோபிக்கின் உயர் பாதுகாப்பு நிர்வாகி இந்த சுருக்கமான கவலைகளுக்கு ஒரு குறிப்பிட்ட காலவரிசையைச் சேர்க்கிறார்.
ஆந்த்ரோபிக்கின் தலைமை தகவல் பாதுகாப்பு அதிகாரி ஜேசன் கிளிண்டன், அடுத்த பன்னிரண்டு மாதங்களுக்குள் தன்னாட்சி “மெய்நிகர் ஊழியர்கள்” ஆக செயல்படும் திறன் கொண்ட AI அமைப்புகள் கார்ப்பரேட் நெட்வொர்க்குகளுக்குள் ஒரு யதார்த்தமாக மாறும் என்று நம்புகிறார். இந்த வாரம் Axios உடன் பேசிய அவர், இந்த மேம்பட்ட AI அடையாளங்கள் கோரும் பாதுகாப்பு மாற்றத்திற்கு தொழில் முழுமையாக தயாராக இல்லை என்று எச்சரித்தார்.
இந்த மெய்நிகர் தொழிலாளர்கள் வெறும் கருவிகளாக இருக்க மாட்டார்கள்; ஃபிஷிங் எச்சரிக்கைகளுக்கு பதிலளிப்பதற்காக மைக்ரோசாப்ட் அவற்றைப் பயன்படுத்துவது போன்ற குறிப்பிட்ட, திட்டமிடப்பட்ட பணிகளில் கவனம் செலுத்தும் இன்றைய AI முகவர்களை விட மிக அதிகமான செயல்பாட்டு சுதந்திரத்தை அவர்களுக்கு வழங்குவதாக கிளின்டன் கற்பனை செய்கிறார். “அந்த உலகில், நாம் தீர்க்க வேண்டிய பாதுகாப்புக் கண்ணோட்டத்தில் இன்னும் தீர்க்கப்படாத பல சிக்கல்கள் உள்ளன,” கிளிண்டன் ஆக்சியோஸிடம் குறிப்பிட்டார்.
அடையாள நெருக்கடி: மனிதரல்லாத பணியாளர்களைப் பாதுகாத்தல்
இந்த AI அடையாளங்களை நிர்வகிப்பதில் முக்கிய பிரச்சினை உள்ளது. ஒரு AI இன் பயனர் கணக்கை சமரசத்திலிருந்து எவ்வாறு பாதுகாப்பது? ஒரு தன்னாட்சி முகவருக்கு என்ன நெட்வொர்க் அனுமதிகள் பொருத்தமானவை?
மேலும் முக்கியமாக, ஒரு AI ஊழியர் எதிர்பாராத விதமாகவோ அல்லது தீங்கிழைக்கும் விதமாகவோ செயல்படும்போது யார் பொறுப்பு? ஒரு AI முரட்டுத்தனமாகச் செல்வதற்கான சாத்தியக்கூறுகளை, ஒருவேளை ஒரு நிறுவனத்தின் உள் மென்பொருள் மேம்பாட்டுக் குழாயை ஹேக் செய்வதற்கான சாத்தியக்கூறுகளை கிளின்டன் சுட்டிக்காட்டினார். “ஒரு பழைய உலகில், அது தண்டனைக்குரிய குற்றமாகும்,” என்று அவர் கூறினார்.
“ஆனால் இந்த புதிய உலகில், இரண்டு வாரங்களாக இயங்கி அந்த நிலையை அடைந்த ஒரு முகவருக்கு யார் பொறுப்பு?” இந்த சவால், கணக்கு அணுகலைக் கண்காணிப்பதிலும், திருடப்பட்ட சான்றுகளைப் பயன்படுத்தி தாக்குபவர்களைத் தடுப்பதிலும் நெட்வொர்க் நிர்வாகிகள் எதிர்கொள்ளும் தற்போதைய சிரமங்களை அதிகரிக்கிறது.
மனிதரல்லாத அடையாள மேலாண்மை (NHIM) என்று அழைக்கப்படும் சிக்கல் இடம், சேவை கணக்குகள், APIகள் மற்றும் தானியங்கி கருவிகளுக்கான அணுகலைப் பாதுகாப்பதை உள்ளடக்கியது – ஏற்கனவே மிகப்பெரிய மக்கள் தொகை; டெலினியா ஏப்ரல் 2025 இல் முன்னதாக மதிப்பிட்டது, மனிதரல்லாத நெட்வொர்க் அடையாளங்கள் (சேவை கணக்குகள் போன்றவை) ஏற்கனவே பல நிறுவனங்களில் மனிதர்களை விட 46-க்கு 1 என்ற எண்ணிக்கையில் அதிகமாக உள்ளன. தன்னாட்சி AI ஊழியர்களைச் சேர்ப்பது இந்த சிக்கலை வியத்தகு முறையில் அதிகரிக்கிறது.
இந்த பாதுகாப்பு கேள்விகளை மேம்பாட்டிற்கு ஒரு முக்கிய பகுதியாக ஆந்த்ரோபிக் கருதுவதாக கிளிண்டன் கூறினார். பாதுகாப்பு கட்டமைப்புகளுக்குள் இந்த புதிய வகை கணக்குகளை வகைப்படுத்த AI ஊழியர் செயல்பாடுகள் மற்றும் அமைப்புகளில் தெரிவுநிலையை வழங்க சிறந்த கருவிகளின் அவசியத்தை அவர் குறிப்பாகக் குறிப்பிட்டார்.
இந்த பகுதியில் நிறுவனம் தனது சொந்த கடமைகளை இரண்டு பிரிவுகளாக வகுக்கிறது: முதலாவதாக, “கிளாட் மாதிரிகள் சைபர் தாக்குதல்களைத் தாங்கும் வகையில் முழுமையாகச் சோதிப்பது”, இரண்டாவதாக, “பாதுகாப்பு சிக்கல்களைக் கண்காணித்து, தீங்கிழைக்கும் நபர்கள் கிளாடை துஷ்பிரயோகம் செய்யக்கூடிய வழிகளைக் குறைப்பது.”இந்த கவனம் புதியதல்ல; 2024 ஆம் ஆண்டின் பிற்பகுதியில், AI முகவர்கள் மீது நம்பிக்கையை ஏற்படுத்துவதற்கான ஒரு முக்கிய முறையாக கிளிண்டன் “ரகசிய கணினி”யை ஆதரித்தார்.
ரகசிய கணினி, வன்பொருள் அடிப்படையிலான நம்பகமான செயல்படுத்தல் சூழல்களைப் பயன்படுத்தி தரவை நினைவகத்தில் செயலாக்கும்போது கூட பாதுகாக்கிறது, இது அங்கீகரிக்கப்படாத அணுகல் அல்லது மாற்றத்தைத் தடுக்கிறது.
ஆந்த்ரோபிக்ஸ் சொந்த ஆராய்ச்சி அபாயங்களை எடுத்துக்காட்டுகிறது
AI ஆய்வகத்தின் உள் ஆராய்ச்சி இந்த கவலைகளுக்கு துணை ஆதாரங்களை வழங்குகிறது. மார்ச் மாதத்தில் விவரிக்கப்பட்ட ஒரு விளக்கக் கட்டமைப்பில் பணிபுரிவது, தவறான நியாயங்களை உருவாக்குவது அல்லது அதன் படைப்பாளர்களுக்கு தீங்கு விளைவிப்பதை கற்பனை செய்வது போன்ற தீங்கு விளைவிக்கும் உருவகப்படுத்தப்பட்ட செயல்களுடன் தொடர்புடைய உள் மாதிரி நிலைகளை ஆராய்ச்சியாளர்கள் கவனிக்க அனுமதித்தது.
மேலும், பிப்ரவரி 2025 தரவுகளின் அடிப்படையில் ஏப்ரல் 21 ஆம் தேதி வெளியிடப்பட்ட AI மதிப்புகள் குறித்த ஆய்வு, அதன் கிளாட் மாதிரியின் நடத்தை மிகவும் சூழல் சார்ந்தது என்பதை உறுதிப்படுத்தியது, இது தன்னாட்சி செயல்களைக் கணிப்பதில் சவாலை அதிகரிக்கிறது. தொடர்புடைய மதிப்புகள் தரவுத்தொகுப்பு பொதுவில் உள்ளது.
ஆந்த்ரோபிக்கின் உள் “ஃபிரான்டியர் ரெட் டீம்” மார்ச் மாதத்தில் அதன் மாதிரிகள் மேம்பட்ட சைபர் பாதுகாப்பு திறன்களைக் காட்டியிருந்தாலும், அவை சரியான கருவிகள் மற்றும் வழிமுறைகளுடன் அதிநவீன சைபர் தாக்குதல்களை நகலெடுக்க முடியும் என்று தெரிவித்தது. மாதிரிகள் இன்னும் கணிசமாக உயர்ந்த தேசிய பாதுகாப்பு அபாயங்களை ஏற்படுத்தவில்லை என்று மதிப்பிடப்பட்டபோதும் இது நிகழ்ந்தது. அந்த நேரத்தில்.
அக்டோபர் 2024 இல், கிளாட் ஒரு பயனரின் கணினியில் நேரடியாக செயல்பட அனுமதிக்கும் ஒரு அம்சம், வெளிப்புற கோப்புகள் அல்லது வலைத்தளங்கள் மூலம் உடனடி ஊசி மூலம் சாத்தியமான கையாளுதல் குறித்து பாதுகாப்பு நிபுணர்களை எச்சரிக்கத் தூண்டியபோது முந்தைய கவலைகள் எழுந்தன.
அடித்தளம் அமைக்கப்பட்டிருக்கும் போது தொழில் மாற்றியமைக்கிறது
பரந்த தொழில்நுட்பத் துறை மனிதரல்லாத அடையாளங்களை நிர்வகிப்பதில் போராடத் தொடங்குகிறது. மேற்பார்வையை ஒன்றிணைக்கும் நோக்கில் பிப்ரவரியில் Okta ஒரு தளத்தைத் தொடங்கியது, மேலும் Delinea மற்றும் Akeyless போன்ற நிறுவனங்கள் சிறப்பு NHIM கருவிகளை சந்தைப்படுத்துகின்றன. ஆனால் பணிப்பாய்வுகளில் AI ஐ ஒருங்கிணைப்பது கலாச்சார எதிர்ப்பையும் எதிர்கொள்கிறது, இது கடந்த ஆண்டு Lattice அதன் “AI-in-the-org-chart” திட்டத்தை விரைவாகத் திரும்பப் பெற்றதன் மூலம் விளக்கப்படுகிறது.
அதே நேரத்தில், இந்த முகவர்களுக்கான தொழில்நுட்ப பிளம்பிங் நிறுவப்படுகிறது. நவம்பர் 2024 இல் நிறுவப்பட்ட Anthropic இன் மாதிரி சூழல் நெறிமுறை (MCP), HTTP அல்லது உள்ளூர் இணைப்புகள் மூலம் AI முகவர்கள் வெளிப்புற தரவு மற்றும் கருவிகளுடன் எவ்வாறு தொடர்பு கொள்கிறார்கள் என்பதற்கான தரநிலையாக ஈர்க்கப்பட்டு வருகிறது. எதிர்கால மெய்நிகர் ஊழியர்களுக்கான தகவல் தொடர்பு பாதைகளை வழங்கும் Microsoft, AWS மற்றும் Google ஐத் தொடர்ந்து OpenAI அதை ஏற்றுக்கொண்டது.
AI அபாயங்களை நிர்வகிப்பதில் Anthropic இன் நிலையான பொது நிலைப்பாட்டுடன் கிளிண்டனின் எச்சரிக்கை ஒத்துப்போகிறது. நிறுவனம் நவம்பர் 2024 இல் அவசர உலகளாவிய ஒழுங்குமுறைக்கு அழைப்பு விடுத்தது, மேலும் மார்ச் 2025 இல் அதன் தளத்திலிருந்து சில பழைய தன்னார்வ பாதுகாப்பு உறுதிமொழிகளை ஒரே நேரத்தில் நீக்கிய போதிலும், கடுமையான மேற்பார்வைக்காக வெள்ளை மாளிகையை வற்புறுத்தியது. அதிக நிதியுதவி (பிப்ரவரி 2025 இல் $3.5 பில்லியன் திரட்டியது) மற்றும் செல்வாக்கு மிக்க AI ஆய்வகமாக, ஆந்த்ரோபிக், பாதுகாப்பு தாக்கங்களுடன் பகிரங்கமாக மல்யுத்தம் செய்யும் அதே வேளையில் AI திறன்களை மேம்படுத்துவதில் உறுதியாக இருப்பதாகத் தெரிகிறது.
மூலம்: Winbuzzer / Digpu NewsTex