Close Menu
Digpu News  Agency Feed
    Facebook X (Twitter) Instagram
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Facebook X (Twitter) Instagram
    Digpu News  Agency Feed
    Subscribe
    Monday, January 5
    • Home
    • Technology
    • USA
    • Business
    • Education
    • Startups and Entrepreneurs
    • Health
    Digpu News  Agency Feed
    Home»Tamil»மானுட பாதுகாப்புத் தலைவர்: 12 மாதங்களுக்குள் AI சக ஊழியர்களுக்குத் தயாராகுங்கள்.

    மானுட பாதுகாப்புத் தலைவர்: 12 மாதங்களுக்குள் AI சக ஊழியர்களுக்குத் தயாராகுங்கள்.

    DeskBy DeskAugust 15, 2025No Comments4 Mins Read
    Share Facebook Twitter Pinterest Copy Link LinkedIn Tumblr Email VKontakte Telegram
    Share
    Facebook Twitter Pinterest Email Copy Link

    செயற்கை நுண்ணறிவு நிறுவனத்தில் தனது பயணத்தைத் தொடரும்போது, பாதுகாப்பு சவால்களின் புதிய எல்லை திறக்கிறது. AI முகவர்கள், குறிப்பாக பெரிய மொழி மாதிரிகளால் இயக்கப்படுபவர்கள், மாயத்தோற்றம் (தவறான தகவல்களை உருவாக்குதல்) மற்றும் உடனடி ஊசி தாக்குதல்களுக்கு பாதிப்பு போன்ற அறியப்பட்ட செயல்பாட்டு வினோதங்களுடன் வருகிறார்கள் – உள்ளீட்டுத் தரவுகளுக்குள் மறைந்திருக்கும் தீங்கிழைக்கும் வழிமுறைகள் AI ஐ எதிர்பாராத செயல்களைச் செய்ய ஏமாற்றும் ஒரு நுட்பம்.

    இவை வெறும் தத்துவார்த்த அபாயங்கள் அல்ல; அவை பெருநிறுவன அமைப்புகளை சமரசம் செய்வதற்கான சாத்தியமான நுழைவாயில்களைக் குறிக்கின்றன. இப்போது, ஆந்த்ரோபிக்கின் உயர் பாதுகாப்பு நிர்வாகி இந்த சுருக்கமான கவலைகளுக்கு ஒரு குறிப்பிட்ட காலவரிசையைச் சேர்க்கிறார்.

    ஆந்த்ரோபிக்கின் தலைமை தகவல் பாதுகாப்பு அதிகாரி ஜேசன் கிளிண்டன், அடுத்த பன்னிரண்டு மாதங்களுக்குள் தன்னாட்சி “மெய்நிகர் ஊழியர்கள்” ஆக செயல்படும் திறன் கொண்ட AI அமைப்புகள் கார்ப்பரேட் நெட்வொர்க்குகளுக்குள் ஒரு யதார்த்தமாக மாறும் என்று நம்புகிறார். இந்த வாரம் Axios உடன் பேசிய அவர், இந்த மேம்பட்ட AI அடையாளங்கள் கோரும் பாதுகாப்பு மாற்றத்திற்கு தொழில் முழுமையாக தயாராக இல்லை என்று எச்சரித்தார்.

    இந்த மெய்நிகர் தொழிலாளர்கள் வெறும் கருவிகளாக இருக்க மாட்டார்கள்; ஃபிஷிங் எச்சரிக்கைகளுக்கு பதிலளிப்பதற்காக மைக்ரோசாப்ட் அவற்றைப் பயன்படுத்துவது போன்ற குறிப்பிட்ட, திட்டமிடப்பட்ட பணிகளில் கவனம் செலுத்தும் இன்றைய AI முகவர்களை விட மிக அதிகமான செயல்பாட்டு சுதந்திரத்தை அவர்களுக்கு வழங்குவதாக கிளின்டன் கற்பனை செய்கிறார். “அந்த உலகில், நாம் தீர்க்க வேண்டிய பாதுகாப்புக் கண்ணோட்டத்தில் இன்னும் தீர்க்கப்படாத பல சிக்கல்கள் உள்ளன,” கிளிண்டன் ஆக்சியோஸிடம் குறிப்பிட்டார்.

    அடையாள நெருக்கடி: மனிதரல்லாத பணியாளர்களைப் பாதுகாத்தல்

    இந்த AI அடையாளங்களை நிர்வகிப்பதில் முக்கிய பிரச்சினை உள்ளது. ஒரு AI இன் பயனர் கணக்கை சமரசத்திலிருந்து எவ்வாறு பாதுகாப்பது? ஒரு தன்னாட்சி முகவருக்கு என்ன நெட்வொர்க் அனுமதிகள் பொருத்தமானவை?

    மேலும் முக்கியமாக, ஒரு AI ஊழியர் எதிர்பாராத விதமாகவோ அல்லது தீங்கிழைக்கும் விதமாகவோ செயல்படும்போது யார் பொறுப்பு? ஒரு AI முரட்டுத்தனமாகச் செல்வதற்கான சாத்தியக்கூறுகளை, ஒருவேளை ஒரு நிறுவனத்தின் உள் மென்பொருள் மேம்பாட்டுக் குழாயை ஹேக் செய்வதற்கான சாத்தியக்கூறுகளை கிளின்டன் சுட்டிக்காட்டினார். “ஒரு பழைய உலகில், அது தண்டனைக்குரிய குற்றமாகும்,” என்று அவர் கூறினார்.

    “ஆனால் இந்த புதிய உலகில், இரண்டு வாரங்களாக இயங்கி அந்த நிலையை அடைந்த ஒரு முகவருக்கு யார் பொறுப்பு?” இந்த சவால், கணக்கு அணுகலைக் கண்காணிப்பதிலும், திருடப்பட்ட சான்றுகளைப் பயன்படுத்தி தாக்குபவர்களைத் தடுப்பதிலும் நெட்வொர்க் நிர்வாகிகள் எதிர்கொள்ளும் தற்போதைய சிரமங்களை அதிகரிக்கிறது.

    மனிதரல்லாத அடையாள மேலாண்மை (NHIM) என்று அழைக்கப்படும் சிக்கல் இடம், சேவை கணக்குகள், APIகள் மற்றும் தானியங்கி கருவிகளுக்கான அணுகலைப் பாதுகாப்பதை உள்ளடக்கியது – ஏற்கனவே மிகப்பெரிய மக்கள் தொகை; டெலினியா ஏப்ரல் 2025 இல் முன்னதாக மதிப்பிட்டது, மனிதரல்லாத நெட்வொர்க் அடையாளங்கள் (சேவை கணக்குகள் போன்றவை) ஏற்கனவே பல நிறுவனங்களில் மனிதர்களை விட 46-க்கு 1 என்ற எண்ணிக்கையில் அதிகமாக உள்ளன. தன்னாட்சி AI ஊழியர்களைச் சேர்ப்பது இந்த சிக்கலை வியத்தகு முறையில் அதிகரிக்கிறது.

    இந்த பாதுகாப்பு கேள்விகளை மேம்பாட்டிற்கு ஒரு முக்கிய பகுதியாக ஆந்த்ரோபிக் கருதுவதாக கிளிண்டன் கூறினார். பாதுகாப்பு கட்டமைப்புகளுக்குள் இந்த புதிய வகை கணக்குகளை வகைப்படுத்த AI ஊழியர் செயல்பாடுகள் மற்றும் அமைப்புகளில் தெரிவுநிலையை வழங்க சிறந்த கருவிகளின் அவசியத்தை அவர் குறிப்பாகக் குறிப்பிட்டார்.

    இந்த பகுதியில் நிறுவனம் தனது சொந்த கடமைகளை இரண்டு பிரிவுகளாக வகுக்கிறது: முதலாவதாக, “கிளாட் மாதிரிகள் சைபர் தாக்குதல்களைத் தாங்கும் வகையில் முழுமையாகச் சோதிப்பது”, இரண்டாவதாக, “பாதுகாப்பு சிக்கல்களைக் கண்காணித்து, தீங்கிழைக்கும் நபர்கள் கிளாடை துஷ்பிரயோகம் செய்யக்கூடிய வழிகளைக் குறைப்பது.”இந்த கவனம் புதியதல்ல; 2024 ஆம் ஆண்டின் பிற்பகுதியில், AI முகவர்கள் மீது நம்பிக்கையை ஏற்படுத்துவதற்கான ஒரு முக்கிய முறையாக கிளிண்டன் “ரகசிய கணினி”யை ஆதரித்தார்.

    ரகசிய கணினி, வன்பொருள் அடிப்படையிலான நம்பகமான செயல்படுத்தல் சூழல்களைப் பயன்படுத்தி தரவை நினைவகத்தில் செயலாக்கும்போது கூட பாதுகாக்கிறது, இது அங்கீகரிக்கப்படாத அணுகல் அல்லது மாற்றத்தைத் தடுக்கிறது.

    ஆந்த்ரோபிக்ஸ் சொந்த ஆராய்ச்சி அபாயங்களை எடுத்துக்காட்டுகிறது

    AI ஆய்வகத்தின் உள் ஆராய்ச்சி இந்த கவலைகளுக்கு துணை ஆதாரங்களை வழங்குகிறது. மார்ச் மாதத்தில் விவரிக்கப்பட்ட ஒரு விளக்கக் கட்டமைப்பில் பணிபுரிவது, தவறான நியாயங்களை உருவாக்குவது அல்லது அதன் படைப்பாளர்களுக்கு தீங்கு விளைவிப்பதை கற்பனை செய்வது போன்ற தீங்கு விளைவிக்கும் உருவகப்படுத்தப்பட்ட செயல்களுடன் தொடர்புடைய உள் மாதிரி நிலைகளை ஆராய்ச்சியாளர்கள் கவனிக்க அனுமதித்தது.

    மேலும், பிப்ரவரி 2025 தரவுகளின் அடிப்படையில் ஏப்ரல் 21 ஆம் தேதி வெளியிடப்பட்ட AI மதிப்புகள் குறித்த ஆய்வு, அதன் கிளாட் மாதிரியின் நடத்தை மிகவும் சூழல் சார்ந்தது என்பதை உறுதிப்படுத்தியது, இது தன்னாட்சி செயல்களைக் கணிப்பதில் சவாலை அதிகரிக்கிறது. தொடர்புடைய மதிப்புகள் தரவுத்தொகுப்பு பொதுவில் உள்ளது.

    ஆந்த்ரோபிக்கின் உள் “ஃபிரான்டியர் ரெட் டீம்” மார்ச் மாதத்தில் அதன் மாதிரிகள் மேம்பட்ட சைபர் பாதுகாப்பு திறன்களைக் காட்டியிருந்தாலும், அவை சரியான கருவிகள் மற்றும் வழிமுறைகளுடன் அதிநவீன சைபர் தாக்குதல்களை நகலெடுக்க முடியும் என்று தெரிவித்தது. மாதிரிகள் இன்னும் கணிசமாக உயர்ந்த தேசிய பாதுகாப்பு அபாயங்களை ஏற்படுத்தவில்லை என்று மதிப்பிடப்பட்டபோதும் இது நிகழ்ந்தது. அந்த நேரத்தில்.

    அக்டோபர் 2024 இல், கிளாட் ஒரு பயனரின் கணினியில் நேரடியாக செயல்பட அனுமதிக்கும் ஒரு அம்சம், வெளிப்புற கோப்புகள் அல்லது வலைத்தளங்கள் மூலம் உடனடி ஊசி மூலம் சாத்தியமான கையாளுதல் குறித்து பாதுகாப்பு நிபுணர்களை எச்சரிக்கத் தூண்டியபோது முந்தைய கவலைகள் எழுந்தன.

    அடித்தளம் அமைக்கப்பட்டிருக்கும் போது தொழில் மாற்றியமைக்கிறது

    பரந்த தொழில்நுட்பத் துறை மனிதரல்லாத அடையாளங்களை நிர்வகிப்பதில் போராடத் தொடங்குகிறது. மேற்பார்வையை ஒன்றிணைக்கும் நோக்கில் பிப்ரவரியில் Okta ஒரு தளத்தைத் தொடங்கியது, மேலும் Delinea மற்றும் Akeyless போன்ற நிறுவனங்கள் சிறப்பு NHIM கருவிகளை சந்தைப்படுத்துகின்றன. ஆனால் பணிப்பாய்வுகளில் AI ஐ ஒருங்கிணைப்பது கலாச்சார எதிர்ப்பையும் எதிர்கொள்கிறது, இது கடந்த ஆண்டு Lattice அதன் “AI-in-the-org-chart” திட்டத்தை விரைவாகத் திரும்பப் பெற்றதன் மூலம் விளக்கப்படுகிறது.

    அதே நேரத்தில், இந்த முகவர்களுக்கான தொழில்நுட்ப பிளம்பிங் நிறுவப்படுகிறது. நவம்பர் 2024 இல் நிறுவப்பட்ட Anthropic இன் மாதிரி சூழல் நெறிமுறை (MCP), HTTP அல்லது உள்ளூர் இணைப்புகள் மூலம் AI முகவர்கள் வெளிப்புற தரவு மற்றும் கருவிகளுடன் எவ்வாறு தொடர்பு கொள்கிறார்கள் என்பதற்கான தரநிலையாக ஈர்க்கப்பட்டு வருகிறது. எதிர்கால மெய்நிகர் ஊழியர்களுக்கான தகவல் தொடர்பு பாதைகளை வழங்கும் Microsoft, AWS மற்றும் Google ஐத் தொடர்ந்து OpenAI அதை ஏற்றுக்கொண்டது.

    AI அபாயங்களை நிர்வகிப்பதில் Anthropic இன் நிலையான பொது நிலைப்பாட்டுடன் கிளிண்டனின் எச்சரிக்கை ஒத்துப்போகிறது. நிறுவனம் நவம்பர் 2024 இல் அவசர உலகளாவிய ஒழுங்குமுறைக்கு அழைப்பு விடுத்தது, மேலும் மார்ச் 2025 இல் அதன் தளத்திலிருந்து சில பழைய தன்னார்வ பாதுகாப்பு உறுதிமொழிகளை ஒரே நேரத்தில் நீக்கிய போதிலும், கடுமையான மேற்பார்வைக்காக வெள்ளை மாளிகையை வற்புறுத்தியது. அதிக நிதியுதவி (பிப்ரவரி 2025 இல் $3.5 பில்லியன் திரட்டியது) மற்றும் செல்வாக்கு மிக்க AI ஆய்வகமாக, ஆந்த்ரோபிக், பாதுகாப்பு தாக்கங்களுடன் பகிரங்கமாக மல்யுத்தம் செய்யும் அதே வேளையில் AI திறன்களை மேம்படுத்துவதில் உறுதியாக இருப்பதாகத் தெரிகிறது.

    மூலம்: Winbuzzer / Digpu NewsTex

    Share. Facebook Twitter Pinterest LinkedIn Tumblr Email Telegram Copy Link
    Previous Articleடீப்சீக் AI ஒரு தேசிய பாதுகாப்பு அச்சுறுத்தல் என்று ஹவுஸ் கமிட்டி அறிக்கை கூறுகிறது, என்விடியா சிப் பயன்பாட்டை விசாரிக்கிறது
    Next Article த்ரீகுவலில் தயாரிப்பு தொடங்கும்போது ‘எனோலா ஹோம்ஸ் 3’ வாட்சன் மற்றும் மோரியார்டியைத் தழுவுகிறது.
    © 2026 ThemeSphere. Designed by ThemeSphere.
    • Home
    • About
    • Team
    • World
    • Buy now!

    Type above and press Enter to search. Press Esc to cancel.