உங்கள் வங்கி கணக்கு AI-யால் காலியாகலாம்! சாம் ஆல்ட்மேன் சொல்லும் பயங்கரம்!

Sam Altman
Sam Altman
Published on

"செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தைப் பொறுப்புடனும் பாதுகாப்புடனும் பயன்படுத்த வேண்டும்! இல்லையெனில்...?" என எச்சரிக்கும் ஓப்பன் ஏஐ தலைமை நிருவாக அதிகாரி சாம் ஆல்ட்மேன்:

வாஷிங்டனில் நடந்த ஒரு பெடரல் ரிசர்வ் மாநாட்டில் கலந்து கொண்ட ஓப்பன் ஏஐ (OpenAI) தலைமை நிருவாக அதிகாரி சாம் ஆல்ட்மேன், செயற்கை நுண்ணறிவு எவ்வாறு உலகத்தை மறுவடிவமைக்கக்கூடும் என்பது குறித்து கருத்து தெரிவித்துள்ளார்.

"செயற்கை நுண்ணறிவு குறித்த தி கார்டியன் அறிக்கையின்படி, குறிப்பாக வாடிக்கையாளர் சேவை போன்ற பிரிவிகளில் சில பணிகள் முற்றிலும் மறைந்து போகக்கூடும். செயற்கை நுண்ணறிவால் இயங்கும் அமைப்புகள் ஏற்கனவே அடிப்படை வினாக்கள் முதல் வாடிக்கையாளர்களுக்கு ஏற்படும் சிக்கல்கள் வரை அனைத்தையும் மனிதர்கள் உதவியின்றிக் கையாளும் வகையில் வடிவமைக்கப்பட்டுள்ளன. மேலும், கால தாமதங்கள் இன்றியும், பிழைகள் இல்லாமலும் செயற்கை நுண்ணறிவு நுட்பம் தற்போது வேகமாகவும், துல்லியமாகவும், மனித முகவர்கள் செய்வதைச் செய்யும் அளவுக்குத் திறன் கொண்டதாக இருக்கின்றன.

இதேப் போன்று, உடல் நலப் பராமரிப்பில் செயற்கை நுண்ணறிவின் பங்கு வளர்ந்து வருகிறது. சேட்சிபிடி (ChatGPT) போன்ற கருவிகளால், மருத்துவர்களை விடச் சிறந்த நோயறிதல்களை வழங்க முடியும். இருப்பினும், மனித மேற்பார்வை இல்லாத ஒரு இயந்திரத்தின் மீது தனது உடல் நலத்தை முழுமையாக நம்பி ஒப்படைப்பது சரியல்ல என்பதையும் கவனத்தில் கொள்ள வேண்டும். மேலும், செயற்கை நுண்ணறிவு நுட்பத்தால் பெரிய அளவிலான மருத்துவத் தரவை விரைவாகச் செயலாக்க முடியும் என்றாலும், பெரும்பாலான மக்கள் இன்னும் ஒரு உண்மையான மருத்துவரின் உறுதியையும் தீர்ப்பையும்தான் மதிக்கிறார்கள். மருத்துவரின் மீது நம்பிக்கை கொண்டிருக்கின்றனர் என்பது பெருமைக்குரியது.

செயற்கை நுண்ணறிவு நுட்பம் குரல் குளோனிங் பயன்படுத்தப்படும் அச்சுறுத்தல் மோசடி உட்பட பல்வேறு தீங்குகளையும் தருகின்றன. செயற்கை நுண்ணறிவு நுட்பத்தைப் பயன்படுத்தும் அரசுகள் மற்றும் நிதி அமைப்புகளில் சைபர் தாக்குதல்களுக்கான சாத்தியக்கூறுகள் அதிகம் இருக்கும். சைபர் குற்றவாளிகள் செயற்கைத் தொழில்நுட்பத்தைப் பயன்படுத்தி, வங்கி உள்ளிட்ட நிதி நிறுவனங்களில் பல்வேறு மோசடிகளைச் செய்யக் கூடும். சில நிதி நிறுவனங்கள், தங்களின் மதிப்பு மிக்கவாடிக்கையாளர்களுக்கு அதிநவீன பாதுகாப்பு அம்சமாகக் குரல் அச்சு அங்கீகாரத்தினை வழங்கியிருந்தன. இனியும் அது பாதுகாப்பானது என்று நினைத்துக் கொண்டிருப்பது முட்டாள்தனமான செயல்.

இதையும் படியுங்கள்:
பிறந்தது முதல் வளரவே வளராது... சாகும் வரை வளர்ந்து கொண்டே இருக்கும்! என்னங்கடா இது?
Sam Altman

செயற்கை நுண்ணறிவு நுட்பதால் உருவாக்கப்பட்ட குரல் குளோன்கள் ஏற்கனவே ஆதிக்கம் செலுத்தி வருகின்றன. மேலும், அவை மிகவும் யதார்த்தமாக ஒலிக்கும் அளவுக்கு புத்திசாலித்தனமாகவும், நாளுக்கு நாள் அதிநவீனமாகவும் வளர்ந்து வருகின்றன. அவற்றால் இப்போது தனிநபர்களை நம்பத்தகுந்த முறையில் பிரதிபலிக்க முடியும். இதனால் அங்கீகார அமைப்புகள் முன்னெப்போதையும் விட பாதிக்கப்படக்கூடியதாக மாறும். வரும் ஆண்டுகளில், வீடியோ டீப்ஃபேக்குகள் இதைப் பின்பற்றும், முக அங்கீகார அமைப்புகளைத் தாக்கும் மற்றும் யதார்த்தத்தை போலியிலிருந்து வேறுபடுத்துவது கிட்டத்தட்ட சாத்தியமற்றதாகிவிடும்.

மோசடி செய்வதை முன்னெப்போதையும் விட எளிமையான வழிகளில் ஆக்கமுறை செயற்கை நுண்ணறிவு (Generative AI) குற்றவாளிகளுக்கு உதவுகிறது. பன்னாட்டுப் பெரு நிறுவனங்களின் தலைமை நிர்வாக அதிகாரிகளைப் போல ஆள்மாறாட்டம் செய்வது முதல் பெற்றோர்களை அவர்களின் குழந்தைகளிடமிருந்து போலி துயர அழைப்புகள் மூலம் ஏமாற்றுவது வரையிலான பல்வேறு அச்சுறுத்தல்கள் ஏற்படுத்தக்கூடும்.

செயற்கை நுண்ணறிவு உற்பத்தித்திறனை அதிகரிக்கவும், அறிவியல் முன்னேற்றங்களை துரிதப்படுத்தவும், தொழில்களை மாற்றவும் உதவுகிறது என்பது உண்மைதான். ஆனால், மறுபுறம், செயற்கை நுண்ணறிவு பல அபாயங்களையும் கொண்டு வருகிறது. குறிப்பாக, தவறாகப் பயன்படுத்தப்பட்டால் அல்லது மோசமாக நிர்வகிக்கப்பட்டால் பெரும் ஆபத்துகளையும் விளைவிக்கக் கூடும்.

இதையும் படியுங்கள்:
இது வெறும் கப்பல் அல்ல... பின்ன?மிதக்கும் விமானப்படை!
Sam Altman

எனவே செயற்கை நுண்ணறிவு நுட்பத்தைப் பயன்படுத்துவதில் பொறுப்புடனும், பாதுகாப்புடனும் செயல்பட வேண்டும். இல்லையெனில், தவறு மற்றும் மோசடிகளுக்கான கதவை நாமேத் திறந்துவிட்டது போலாகிவிடும்" என்றும் எச்சரித்திருக்கிறார் சாம் ஆல்ட்மேன்.

எனவே, செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தை மிகுந்த பாதுகாப்புடனும், எச்சரிக்கை உணர்வுடனும் கையாள்வதே நமக்குப் பயனளிக்கும் என்பதை ஒவ்வொருவருவரும் உணர்ந்து செயல்பட வேண்டும்.

Other Articles

No stories found.
logo
Kalki Online
kalkionline.com