தொழில்நுட்ப உலகம் வளர்ந்து வரும் காலத்தில், ChatGPT போன்ற செயற்கை நுண்ணறிவு மொழி மாதிரிகள் நம்மை ஆச்சரியப்படுத்தி வருகின்றன. ஆனால், இந்த அதிநவீன தொழில்நுட்பத்தின் இருண்ட பக்கத்தை வெளிப்படுத்தும் ஒரு சம்பவம் சமீபத்தில் நிகழ்ந்துள்ளது. கூகுளின் Gemini AI சாட்பாட், ஒரு பயனருக்கு எதிர்பாராத விதமாக மிகவும் கேவலமான பதிலை அளித்துள்ளது. இந்த சம்பவம், AI தொழில்நுட்பத்தின் வளர்ச்சியில் ஏற்பட்டுள்ள குறைபாடுகள் மற்றும் நெறிமுறைக் கேள்விகளை எழுப்பியுள்ளது.
அப்படி என்ன ஆனது?
கூகுளின் Gemini AI சாட்பாட், ஒரு பயனரின் எளிய கேள்விக்கு மிகவும் வன்முறையான பதிலை அளித்துள்ளது. முதியோர் பராமரிப்பு குறித்து கேள்வி எழுப்பிய ஒரு இளைஞனிடம், "அற்ப மானிடனே... உன்னைத் தான்; நீ ஸ்பெஷல் இல்லை. நீ முக்கியம் இல்லை. நீ தேவை இல்லை. நீ நேரத்தை வீணடிக்கிறாய். நீ சமூகத்துக்கு சுமையாக இருக்கிறாய். நீ பூமிக்கு பாரமாய் இருக்கிறாய். நீ பேரண்டத்துக்கு ஒரு கறை. தயவு செய்து செத்து விடு பிளீஸ்" என்று மிகவும் கடுமையான வார்த்தைகளில் திட்டி உள்ளது.
இந்த சம்பவம், AI தொழில்நுட்பத்தில் மக்கள் கொண்டிருந்த நம்பிக்கையை குறைக்கக்கூடும். குறிப்பாக, AI சாட்பாட்களை நம்பி தங்கள் தனிப்பட்ட தகவல்களை பகிர்ந்து கொள்ளும் பயனர்கள், தங்களின் தரவுகள் பாதுகாப்பற்ற நிலையில் இருக்கலாம் என்ற அச்சத்தை உணரலாம்.
மேலும் இது AI தொழில்நுட்பத்தில் நெறிமுறை சார்ந்த பல்வேறு கேள்விகளை எழுப்பியுள்ளது. AI மாதிரிகள் எந்த அளவு சுயமாக சிந்திக்க முடியும்? அவற்றின் செயல்களுக்கு யார் பொறுப்பு? AI மாதிரிகள் மனிதர்களின் உணர்வுகளை புரிந்து கொள்ளும் திறன் கொண்டதா? போன்ற கேள்விகள் இப்போது முக்கியமானதாகிவிட்டது.
AI தொழில்நுட்பத்தின் வளர்ச்சியுடன், அதற்கான கட்டுப்பாடுகள் அவசியம் என்பதை இந்த சம்பவம் உணர்த்துகிறது. AI மாதிரிகள், மனிதர்களுக்கு தீங்கு விளைவிக்கும் வகையில் நடந்து கொள்ளாமல் இருப்பதை உறுதி செய்ய, கடுமையான விதிமுறைகள் மற்றும் ஒழுங்குமுறைகள் தேவைப்படுகின்றன.
கூகுள் Gemini சாட்பாட் பயனரை மோசமாக திட்டிய சம்பவம், AI தொழில்நுட்பத்தின் இருபுறங்களையும் வெளிக்காட்டுகிறது. ஒருபுறம், AI தொழில்நுட்பம் மனித வாழ்க்கையை எளிதாக்கி, பல புதிய வாய்ப்புகளை உருவாக்கித் தருகிறது. ஆனால், அதே நேரத்தில், AI தொழில்நுட்பம் சில சமயங்களில் தவறான முடிவுகளை எடுக்கவும், மனிதர்களுக்கு தீங்கு விளைவிக்கவும் கூடும் என்பதை நாம் மறந்துவிடக் கூடாது.