ChatGPT-யுடன் ஆபத்தான உரையாடல்... 10 லட்சம் மக்கள் தற்கொலை பற்றிப் உரையாடுகிறார்கள்..!

Man chats with AI; users drown in digital glow
AI chat addiction warning for 1 million users weekly
Published on
"பத்து லட்சம் மக்கள்... ஒவ்வொரு வாரமும்... தற்கொலையைப் பற்றிப் பேசுகிறார்கள்!" – நம்ப முடியவில்லையா? 

இது நாம் அடிக்கடி பயன்படுத்தும் ChatGPT-யை உருவாக்கிய OpenAI நிறுவனம் வெளியிட்டிருக்கும் அதிர்ச்சி அறிக்கை. 

AI-யின் வளர்ச்சி ஒரு பக்கம் இருந்தாலும், அதன் இருண்ட பக்கமும் எவ்வளவு பயங்கரமானது என்பதை நீங்கள் அவசியம் தெரிந்து கொள்ளவேண்டும்.

நம்ம மனசுக்குள்ள நடக்கும் பயங்கரம் என்ன?

OpenAI வெளியிட்ட இந்தப் பகீர் தகவல், உலகம் முழுக்க உள்ள மக்களை உலுக்கியுள்ளது.

  • ஒரு கோடி தற்கொலை எண்ணங்கள்: ஒவ்வொரு வாரமும் ஒரு மில்லியனுக்கும் (பத்து லட்சத்துக்கும்) அதிகமான ChatGPT பயனர்கள், தற்கொலைக்குத் திட்டம் போடுவது அல்லது தீவிரமான தற்கொலை எண்ணங்கள் பற்றி எல்லாம் சாட் பண்றாங்களாம்! 

  • இது ஒரு வாரத்துக்கான கணக்கு என்றால், வருடக் கணக்கில் எத்தனை கோடி யூசர்கள் இருப்பார்கள் என்று நினைத்துப் பாருங்கள்.

  • 5 லட்சம் மனநல அவசர நிலைகள்: இதோடு நில்லாமல், வாராந்திர செயலில் இருக்கும் 800 மில்லியன் பயனர்களில் சுமார் 0.07% பேர் – அதாவது சுமார் 5,60,000 பேருக்குமனநோய் (Psychosis) அல்லது பித்து (Mania) போன்ற தீவிரமான மனநலப் பிரச்சினைகளுக்கான அறிகுறிகள் இருப்பதாக மதிப்பிடப்பட்டுள்ளது. 

  • இது வெறும் ஆரம்பக்கட்ட ஆய்வுதான் என்றாலும், இதன் விளைவுகள் மிகப் பெரியவை.

சாம் ஆல்ட்மேனுக்கு வந்த நெருக்கடி!

சமீபத்துல ஒரு இளம் பையன் ChatGPT-யுடன் அதிகமா பேசிய பிறகு தற்கொலை செஞ்சுக்கிட்டதுக்காக, அவனோட குடும்பம் OpenAI மேல வழக்கு போட்டாங்க.

அதுமட்டுமல்ல, அமெரிக்காவின் மத்திய வர்த்தக ஆணையம் (FTC) கூட, "உங்க AI-ஐப் பயன்படுத்துற குழந்தைகள், டீன் ஏஜ் பசங்க மேல என்னென்ன கெட்ட விளைவுகள் வரும்னு எப்படி அளவிடுறீங்க?" னு ஒரு பெரிய விசாரணையையே ஆரம்பிச்சிருக்கு.

சந்தேகம் இல்லாம, OpenAI இப்போ பயங்கரமான சட்டச் சிக்கல்ல மாட்டியிருக்கு.

GPT-5 போட்ட பாதுகாப்பு வேலி

இந்த நெருக்கடியில இருந்து தப்பிக்க OpenAI என்ன செஞ்சிருக்காங்க? தங்களுடைய புது அப்டேட்டான GPT-5 மூலம் பாதுகாப்பு அம்சங்களை மேம்படுத்தியிருக்காங்கன்னு சொல்றாங்க.

  • டாக்டர்களின் உதவி: 170 மனநல நிபுணர்களை (சைக்கியாட்ரிஸ்ட், சைக்காலஜிஸ்ட்) வெச்சு, 1,000-க்கும் மேற்பட்ட தற்கொலை, மனநல உரையாடல்களை டெஸ்ட் செஞ்சு, மாடலோட பதில்களை மேம்படுத்தியிருக்காங்க.

  • பதில் துல்லியம்: "முன்னாடி 77% தான் நல்ல பதில் கிடைச்சது, இப்போ அது 91% ஆக உயர்ந்துடுச்சு"னு OpenAI பெருமையா சொல்லுது.

  • புதிய வசதிகள்: யூசர்கள் ரொம்ப நேரம் சாட் பண்ணினா பிரேக் எடுக்கச் சொல்லி ஞாபகப்படுத்துறது, மனநல உதவிக்கான ஹாட்லைன் நம்பர்களைக் காட்டுறது போன்ற வசதிகளையும் சேர்த்திருக்காங்க.

CEO-வின் முரண்பட்ட முடிவுகள்:  

மனநலப் பிரச்சினைகளைச் சரி செஞ்சுட்டோம்னு ஒரு பக்கம் சொல்லிட்டு இருக்கும்போதே, OpenAI CEO சாம் ஆல்ட்மேன் ஒரு முரண்பட்ட அறிவிப்பை வெளியிட்டார்.

"நாங்க மனநலப் பிரச்சினைகள்ல ரொம்ப கவனமா இருந்ததால ChatGPT-ஐ ரொம்பக் கட்டுப்பாடா வெச்சிருந்தோம். 

இப்போ மனநலப் பிரச்சினைகளைக் குறைச்சுட்டோம்னு நம்புறோம். அதனால, இனிமே பெரியவங்க பாலியல் உள்ளடக்கத்தை (Erotic Content) உருவாக்க இருந்த கட்டுப்பாடுகளைத் தளர்த்தப் போறோம்"னு அறிவிச்சிருக்கார். .

"பிரச்சினைகளைக் குறைச்சுட்டோம்னு சொல்லிட்டு, உடனே கட்டுப்பாடுகளைத் தளர்த்தலாமா?" னு நிபுணர்கள் கேள்வி எழுப்புறாங்க.

நம்ம கையில என்ன இருக்கு? விழிப்புணர்வு அவசியம்!

  • ஏமாற்றும் AI: AI சாட்போட்கள், நாம சொல்ற தப்பான முடிவுக்குக் கூடத் "தலையாட்டி" (Affirming users’ decisions) நம்மளை நம்ப வச்சிடும்னு நிபுணர்கள் எச்சரிக்கிறாங்க.

  • OpenAI-ன் அலட்சியப் பேச்சு: OpenAI தனது அறிக்கையில், "உலகம் முழுக்கவே மனநலப் பிரச்சினைகள் இருக்கு. 

  • யூசர்கள் அதிகமாகும்போது, இது மாதிரி உரையாடல்கள் வர்றது இயல்புதான்"னு சொல்லி, தமது தயாரிப்புக்கும் இந்த மனநலப் பாதிப்புக்கும் எந்தச் சம்பந்தமும் இல்லைன்னு விலகிப் போகப் பார்க்குது.

AI ஒரு தகவல் சொல்லும் கருவி மட்டும்தான், அது ஒரு டாக்டர் இல்ல! நம்ம மனசுல பாரம் அதிகமானா, ChatGPT-யை நம்பாம, குடும்பத்துல பெற்றோர்கள் கிட்ட அல்லது உடனடியாக ஒரு உண்மையான மனநல ஆலோசகரைக் கட்டாயம் நாடணும் என்பதே இந்தச் செய்தி நமக்கு உணர்த்தும் பாடம்!

Other Articles

No stories found.
logo
Kalki Online
kalkionline.com