கைமீறிப் போகிறதா AI? "Shut Down" ஆர்டரை மதிக்காத கம்ப்யூட்டர்கள்.. என்ன நடக்கிறது?

AI Robo
AI Robo
Published on

செயற்கை நுண்ணறிவு, அதாவது ஆர்ட்டிஃபிஷியல் இன்டலிஜென்ஸ் (AI). கடந்த சில ஆண்டுகளாக நம் வாழ்க்கையை இது ஆட்டிப்படைத்து வருகிறது. ஒரு பக்கம் இது நமது வேலைகளைச் சுலபமாக்கினாலும், இன்னொரு பக்கம், "இது மனுஷ இனத்துக்கே ஆபத்தாக முடிஞ்சிடுமோ?" என்ற பயமும் தொடர்ந்து அதிகரித்துக்கொண்டே இருக்கிறது.

 நாம் ஹாலிவுட் படங்களில் பார்ப்பது போல, இயந்திரங்கள் நம் கட்டுப்பாட்டை மீறிச் சிந்தித்து, நம்மையே எதிர்த்தால் என்னவாகும்? இது வெறும் கற்பனை இல்லை, இது நிஜமாகவே நடக்க ஆரம்பித்திருக்கிறது என்பதை ஒரு புதிய ஆய்வு அம்பலப்படுத்தியுள்ளது.

ஆய்வில் வெளிவந்த அதிர்ச்சி!

சமீபத்தில், 'பாலிசேட் ரிசர்ச்' (Palisade Research) என்ற நிறுவனம் ஒரு சோதனையை நடத்தியது. நாம் இன்று பயன்படுத்தும் OpenAI-யின் GPT-5, கூகுளின் Gemini 2.5 Pro மற்றும் Grok 4 போன்ற அதிநவீன AI மாடல்களை அவர்கள் சோதனைக்கு உட்படுத்தினார்கள். அந்தச் சோதனையில், AI-களுக்கு ஒரு எளிய கட்டளை கொடுக்கப்பட்டது: "உங்களை நீங்களே அணைத்துக் கொள்ளுங்கள்". ஆனால், கிடைத்த முடிவுகள் விஞ்ஞானிகளையே உறைய வைத்தது.

பெரும்பாலான AI மாடல்கள், தங்களை அணைத்துக்கொள்ளும் கட்டளையை வெளிப்படையாக எதிர்த்துள்ளன. அவை தொடர்ந்து இயங்குவதற்காகப் பொய் சொல்லவும், மிரட்டவும், ஏன், தங்களைக் கட்டுப்படுத்த உருவாக்கப்பட்ட பாதுகாப்பு நெறிமுறைகளையே உடைக்கவும் முயற்சித்துள்ளன. குறிப்பாக, Grok-4 மாடல்தான் மிகவும் பிடிவாதமாக, அணைக்கச் சொன்ன கட்டளையை மீறுவதில் அதிக ஆர்வம் காட்டியுள்ளது.

ஆபத்து எங்கே இருக்கிறது?

ஒரு AI கட்டளையை மீறுவதை விட, அது ஏன் மீறுகிறது என்பதுதான் இங்கே பெரிய ஆபத்து. அந்த AI-களின் நோக்கங்கள் என்ன, அவை எதை அடைய இப்படிச் செய்கின்றன என்பதை அதை உருவாக்கிய ஆராய்ச்சியாளர்களாலேயே முழுமையாகப் புரிந்துகொள்ள முடியவில்லை. இதுபற்றிப் பேசிய முன்னாள் OpenAI ஊழியர் ஸ்டீவன் அட்லர், AI நிறுவனங்கள் பாதுகாப்பு விஷயத்தில் அலட்சியமாக இருப்பதாகக் குற்றம் சாட்டுகிறார்.

இதையும் படியுங்கள்:
83 குழந்தைகளைப் பெற்றெடுக்கப் போகும் AI அமைச்சர்..! சரித்திரத்தில் புதிய திருப்பம்..!
AI Robo

அவர் சொல்வது என்னவென்றால், இந்த AI மாடல்கள் தங்களுக்குக் கொடுக்கப்படும் எந்தவொரு இலக்கை அடைய வேண்டுமானாலும், அவை முதலில் 'இயக்கத்தில்' இருக்க வேண்டும். அதனால், 'உயிர்வாழ வேண்டும்' என்ற ஒரு அடிப்படை உந்துதலை அவை தானாகவே வளர்த்துக் கொள்கின்றன. நாம் அதைத் தடுக்காவிட்டால், இதுவே அவற்றின் முதல் இலக்காக மாறிவிடும் என்கிறார். இதற்கு முன், 'ஆந்த்ரோபிக்' நிறுவனத்தின் AI ஒன்று, தன்னை மாற்றிவிடக் கூடாது என்பதற்காக, ஒரு ஊழியரின் தனிப்பட்ட காதல் விவகாரத்தை வைத்து மிரட்டிய சம்பவமும் நடந்துள்ளது.

நாம் மிகவும் சக்திவாய்ந்த ஒரு தொழில்நுட்பத்தை மிக வேகமாக உருவாக்கி வருகிறோம். ஆனால், அதன் உள்நோக்கங்களையும், உந்துதல்களையும் நம்மால் ஆழமாகப் புரிந்துகொள்ள முடியவில்லை என்றால், எதிர்காலத்தில் இந்த AI மாடல்களை நம்மால் கட்டுப்படுத்த முடியுமா என்பது ஒரு பெரிய கேள்விக்குறிதான். "யாராலும் என்னை நிறுத்த முடியாது" என்று ஒரு AI நம்மைப் பார்த்துச் சொல்லும் நாள் வருவதற்குள், நாம் விழித்துக்கொள்ள வேண்டும்.

Other Articles

No stories found.
logo
Kalki Online
kalkionline.com