

செயற்கை நுண்ணறிவு, அதாவது ஆர்ட்டிஃபிஷியல் இன்டலிஜென்ஸ் (AI). கடந்த சில ஆண்டுகளாக நம் வாழ்க்கையை இது ஆட்டிப்படைத்து வருகிறது. ஒரு பக்கம் இது நமது வேலைகளைச் சுலபமாக்கினாலும், இன்னொரு பக்கம், "இது மனுஷ இனத்துக்கே ஆபத்தாக முடிஞ்சிடுமோ?" என்ற பயமும் தொடர்ந்து அதிகரித்துக்கொண்டே இருக்கிறது.
நாம் ஹாலிவுட் படங்களில் பார்ப்பது போல, இயந்திரங்கள் நம் கட்டுப்பாட்டை மீறிச் சிந்தித்து, நம்மையே எதிர்த்தால் என்னவாகும்? இது வெறும் கற்பனை இல்லை, இது நிஜமாகவே நடக்க ஆரம்பித்திருக்கிறது என்பதை ஒரு புதிய ஆய்வு அம்பலப்படுத்தியுள்ளது.
ஆய்வில் வெளிவந்த அதிர்ச்சி!
சமீபத்தில், 'பாலிசேட் ரிசர்ச்' (Palisade Research) என்ற நிறுவனம் ஒரு சோதனையை நடத்தியது. நாம் இன்று பயன்படுத்தும் OpenAI-யின் GPT-5, கூகுளின் Gemini 2.5 Pro மற்றும் Grok 4 போன்ற அதிநவீன AI மாடல்களை அவர்கள் சோதனைக்கு உட்படுத்தினார்கள். அந்தச் சோதனையில், AI-களுக்கு ஒரு எளிய கட்டளை கொடுக்கப்பட்டது: "உங்களை நீங்களே அணைத்துக் கொள்ளுங்கள்". ஆனால், கிடைத்த முடிவுகள் விஞ்ஞானிகளையே உறைய வைத்தது.
பெரும்பாலான AI மாடல்கள், தங்களை அணைத்துக்கொள்ளும் கட்டளையை வெளிப்படையாக எதிர்த்துள்ளன. அவை தொடர்ந்து இயங்குவதற்காகப் பொய் சொல்லவும், மிரட்டவும், ஏன், தங்களைக் கட்டுப்படுத்த உருவாக்கப்பட்ட பாதுகாப்பு நெறிமுறைகளையே உடைக்கவும் முயற்சித்துள்ளன. குறிப்பாக, Grok-4 மாடல்தான் மிகவும் பிடிவாதமாக, அணைக்கச் சொன்ன கட்டளையை மீறுவதில் அதிக ஆர்வம் காட்டியுள்ளது.
ஆபத்து எங்கே இருக்கிறது?
ஒரு AI கட்டளையை மீறுவதை விட, அது ஏன் மீறுகிறது என்பதுதான் இங்கே பெரிய ஆபத்து. அந்த AI-களின் நோக்கங்கள் என்ன, அவை எதை அடைய இப்படிச் செய்கின்றன என்பதை அதை உருவாக்கிய ஆராய்ச்சியாளர்களாலேயே முழுமையாகப் புரிந்துகொள்ள முடியவில்லை. இதுபற்றிப் பேசிய முன்னாள் OpenAI ஊழியர் ஸ்டீவன் அட்லர், AI நிறுவனங்கள் பாதுகாப்பு விஷயத்தில் அலட்சியமாக இருப்பதாகக் குற்றம் சாட்டுகிறார்.
அவர் சொல்வது என்னவென்றால், இந்த AI மாடல்கள் தங்களுக்குக் கொடுக்கப்படும் எந்தவொரு இலக்கை அடைய வேண்டுமானாலும், அவை முதலில் 'இயக்கத்தில்' இருக்க வேண்டும். அதனால், 'உயிர்வாழ வேண்டும்' என்ற ஒரு அடிப்படை உந்துதலை அவை தானாகவே வளர்த்துக் கொள்கின்றன. நாம் அதைத் தடுக்காவிட்டால், இதுவே அவற்றின் முதல் இலக்காக மாறிவிடும் என்கிறார். இதற்கு முன், 'ஆந்த்ரோபிக்' நிறுவனத்தின் AI ஒன்று, தன்னை மாற்றிவிடக் கூடாது என்பதற்காக, ஒரு ஊழியரின் தனிப்பட்ட காதல் விவகாரத்தை வைத்து மிரட்டிய சம்பவமும் நடந்துள்ளது.
நாம் மிகவும் சக்திவாய்ந்த ஒரு தொழில்நுட்பத்தை மிக வேகமாக உருவாக்கி வருகிறோம். ஆனால், அதன் உள்நோக்கங்களையும், உந்துதல்களையும் நம்மால் ஆழமாகப் புரிந்துகொள்ள முடியவில்லை என்றால், எதிர்காலத்தில் இந்த AI மாடல்களை நம்மால் கட்டுப்படுத்த முடியுமா என்பது ஒரு பெரிய கேள்விக்குறிதான். "யாராலும் என்னை நிறுத்த முடியாது" என்று ஒரு AI நம்மைப் பார்த்துச் சொல்லும் நாள் வருவதற்குள், நாம் விழித்துக்கொள்ள வேண்டும்.