வேகமாக வளர்ந்து வரும் தொழில்நுட்ப யுகத்தில், உண்மைக்கும் பொய்க்கும் இடையேயான வித்தியாசத்தை நாம் கண்டுபிடிப்பது மிகவும் கடினமாகிவிட்டது. சமீப காலமாகவே பிரபலமாக இருக்கும் ஒரு விஷயம் என்னவென்றால், போலியான வீடியோக்களை உருவாக்குவதாகும். முற்றிலும் டிஜிட்டல் முறையில் கையாளப்படும் இந்த காணொளிகள், செயற்கை நுண்ணறிவுத் தொழில்நுட்பத்தை பயன்படுத்தி, ஒரு காணொளியை மிகவும் எதார்த்தமாக வேறு காணொளியாக மாற்றுகிறது. இதைதான் DeepFake என்பார்கள்.
DeepFake தொழில்நுட்பத்தின் வரலாறு:
DeepFake தொழில்நுட்பத்தின் வரலாற்றை நாம் தேடிப் பார்க்கும்போது 2010களின் தொடக்கத்தில் மேம்படத் தொடங்கிய ஆர்ட்டிஃபிஷியல் இன்டெலிஜென்ஸ், டீப் லெர்னிங் போன்றவற்றால் உருவானதுதான் இது. டிப் லேர்னிங், மிஷின் லேர்னிங் போன்றவற்றால் டேட்டா தொகுப்புகளை புரிந்துகொண்டு, அதைத் துல்லியமாக கணித்து வேறு ஒரு விஷயத்தை உருவாக்க முடியும். இதுதான் DeepFake வீடியோக்கள் உருவாக வழி வகுத்தது. ஏனென்றால் இந்த அல்காரிதம், காணொளி உள்ளடக்கத்தை சிறப்பாக மாற்றும் திறன் பெற்றிருந்தது.
ஆனால் இத்தகைய போலி வீடியோக்கள் கவனத்தை பெற்றது 2017 ஆம் ஆண்டில் தான். அப்போது Reddit தளத்தில் DeepFakes என்ற பயனர் ஒருவர் முற்றிலும் எதார்த்தமான முறையில் பிரபலங்களின் முகத்தை மாற்றி வீடியோக்களை பகிரத் தொடங்கினார்.
அப்போது இருந்து தான் இதற்கு DeepFake என்ற பெயர் வந்தது. சரியான கருவிகள் மற்றும் தொழில்நுட்பத்தைப் பயன்படுத்தி அனைவரும் நம்பத்தகுந்த வகையில் போலி வீடியோக்களை உருவாக்கும் சகாப்தம் இங்குதான் தொடங்கியது. அதன் பிறகு இதற்காகவே பல செயலிகளும், AI டூல்களும் உருவாக்கப்பட்டன.
இது எப்படி செயல்படுகிறது?
DeepFake வீடியோக்களுக்கு பின்னால் உள்ள அறிவியல் மிகவும் சிக்கலானது. இது அதிநவீன மெஷின் லெர்னின் நுட்பங்களை நம்பியுள்ளது. இந்த செயல்முறை இரண்டு முக்கிய அம்சங்களை உள்ளடக்கியதாகும்.
Training: முதற்கட்டமாக டீப் லேர்னிங் அல்காரிதமிற்குத் தேவையான பயிற்சி அளிக்க வேண்டும். அதாவது எந்த புகைப்படம் அல்லது காணொளியை மாற்றப்போகிறோம் என்று உள்ளீடு கொடுக்க வேண்டும். முதலில் அல்காரிதம் அவற்றை அலசி ஆராய்ந்து, முக பாவனைகள் அனைத்தையும் அனலைஸ் செய்து Input டேட்டாவாக எடுத்துக் கொள்ளும்.
Generation: அந்த தொழில்நுட்பத்திற்கு தேவையான ட்ரைனிங் முடிந்ததும், அதன் அல்காரிதம் கொடுக்கப்பட்ட இன்புட்டை பயன்படுத்தி முற்றிலும் புதிய காணொளியை அல்லது படத்தை உருவாக்கும் செயலில் இறங்கும். இது பார்ப்பதற்கு முற்றிலும் உண்மைத்தன்மை வாய்ந்தது போலவே, மனிதர்களால் கண்டுபிடிக்க முடியாத அளவுக்கு இருக்கும்.
இப்படிதான் DeepFake தொழில்நுட்பத்தைப் பயன்படுத்தி காணொளிகளும் புகைப்படங்களும் போலியாக உருவாக்கப்படுகிறது. இதனால் ஒருபுறம் நன்மை இருந்தாலும், மறுபுறம் அதிகமான தீமைக்கே வழிவகுக்கும் என்கின்றனர். போலியாக ஒருவரின் முகத்தை வேறொரு முகமாக மாற்றுவது தனிநபர் பிரைவேசியில் பிரச்சனைகளைக் கொண்டு வரலாம். இப்படிதான் சமீபத்தில் கூட ராஷ்மிகா மந்தனாவின் போலி காணொளி வைரலானது.
இதன் மூலமாக சமூகத்தில் மிகப்பெரிய தாக்கம் ஏற்பட வாய்ப்புள்ளது என்பது தெளிவாகத் தெரிகிறது. இதனால் அடையாளத் திருட்டு, தவறான விஷயங்களுக்கு காணொளிகள், புகைப்படங்கள் பயன்படுத்தப்படுவதற்கான சாத்தியக்கூறுகள் அதிக அளவில் உள்ளதால், இந்த தொழில்நுட்பத்திடம் நாம் கொஞ்சம் ஜாக்கிரதையாகத்தான் இருக்க வேண்டும்.