തമിഴിലിറങ്ങി അഗോള ബോക്സോഫീസിനെ വെല്ലുവിളിച്ച സിനിമയായിരുന്നു 2010ല് രജനി-ഷങ്കര് കൂട്ടുകെട്ടില് പിറന്ന ‘എന്തിരന്’. ഒരു ശാസ്ത്രസിനിമയെന്ന പേരിലിറങ്ങി എല്ലാതരംപ്രേക്ഷകരെയും ആകര്ഷിച്ച ‘എന്തിര’ന് ഒരു പ്രത്യേകതയുണ്ടായിരുന്നു. മനുഷ്യര്ക്ക് സാധിക്കാത്ത പലതും ഞൊടിയിടയില് നടപ്പിലാക്കുന്ന അമാനുഷിക ശക്തിയുള്ള റോബോര്ട്ട്. അതായിരുന്നു ‘എന്തിരന്’ സിനിമയില് രജനികാന്ത് അവതരിപ്പിച്ച ഒരു കഥാപാത്രമായ ചിട്ടി. വസിഗരന് എന്ന രജനി കഥാപാത്രം ‘ചിട്ടി’ എന്ന റോബോട്ടിനെ ഉണ്ടാക്കുകയും തുടര്ന്ന് അത് സമൂഹത്തിലുണ്ടാക്കുന്ന ഗുണവും ദോഷങ്ങളുമാണ് സിനിമയിലൂടെ സംവിധായകന് ഷങ്കര് അവതരിപ്പിച്ചത്.
ആര്ക്കും സാധ്യമാകാത്ത കാര്യങ്ങള് എത്തിപ്പിടിക്കുക. എല്ലാ വിഷയത്തിനും ഉത്തരം നല്കുക. മനുഷ്യനെ സഹായിക്കുന്ന മറ്റൊരു ‘അമാനുഷികതല’യാകുക. ഇതെല്ലാമായിരുന്നു സിനിമയിലെ ‘ചിട്ടി’. അന്ന് എല്ലാവരും ‘എന്തിരനെ’ സിനിമയായി മാത്രമാണ് വീക്ഷിച്ചത്. എന്നാല്, 2020ന് ശേഷം സിനിമക്കഥ യാഥാര്ത്ഥ്യമാകുന്നതാണ് ലോകം കണ്ടുകൊണ്ടിരിക്കുന്നത്. ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്റ്സ് അഥവാ ‘നിര്മിത ബുദ്ധി’യിലൂടെ മനുഷ്യനെ വെല്ലുന്ന ബുദ്ധിയുമായി റോബോട്ടുകള് പിറക്കുന്നു. അതല്ലെങ്കില് മനുഷ്യര് ചെയ്യുന്നതെല്ലാം ചെയ്യുന്ന റോബോട്ടുകളുണ്ടാകുന്നു. സിനിമയിലെ ‘എന്തിരന്’ യാഥാര്ത്ഥ്യമാകുന്നു.
ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്റ്സ് ഇന്ന് ലോകത്ത് ഏറ്റവും കൂടുതല് ഉപയോഗിക്കുന്ന രാജ്യമാണ് ഇന്ത്യ. 130 കോടി ജനങ്ങളുടെ തലച്ചോറിനൊപ്പം നിര്മിതബുദ്ധി തലച്ചോറും പണിയെടുത്ത് ഇരട്ടിനേട്ടം സൃഷ്ടിക്കാന് സാധിക്കുമോയെന്നാണ് നാം ഇന്നു ചിന്തിക്കുന്നത്. നിലവില് സുപ്രീംകോടതിവരെ ‘നിര്മിതബുദ്ധി’ ഉപയോഗിച്ചു തുടങ്ങിയിട്ടുണ്ട്. ഒരു നാണയത്തിന്റെ ഇരുവശങ്ങള്പോലെ ‘നിര്മിതബുദ്ധി’ക്ക് രണ്ടുതലമാണുള്ളത്. അതില് ഗുണവും ദോഷവും ഉള്പ്പെടും. ചിലപ്പോള് അതുസമൂഹത്തിന്റെ സന്തുലിതാവസ്ഥയെതന്നെ തെറ്റിച്ചേക്കും. ഗുണത്തോടൊപ്പം നിര്മ്മിതബുദ്ധി മനുഷ്യന് ദോഷങ്ങളുമുണ്ടാക്കിയേക്കാം.
പക്ഷപാതപരമായ തീരുമാനങ്ങള്
‘നിര്മിത ബുദ്ധി’യുടെ പക്ഷപാതപരമായ ഫലങ്ങള് അടുത്തിടെ വലിയ വിവാദങ്ങള് സൃഷ്ടിച്ചിട്ടുണ്ട്. അതിന്റെ അറിയപ്പെടുന്ന ഏറ്റവും വലിയ ഉദാഹരണമാണ് ആപ്പിളിന്റെ ക്രെഡിറ്റ് കാര്ഡ് അല്ഗോരിതം. തന്റെ ഭാര്യയ്ക്ക് ലഭിച്ച ക്രെഡിറ്റ് ലിമിറ്റിന്റെ 20 മടങ്ങ് തനിക്ക് നല്കിയെന്ന് വ്യവസായിയായ ഡേവിഡ് ഹെയ്നെമിയര് ഹാന്സണ്, എക്സില് (ട്വിറ്റര്) പോസ്റ്റിട്ടതോടെയാണ് സംഭവം വിവാദമായത്. സേവനങ്ങളില് നിന്ന് കൂടുതല് വരുമാനം നേടാനുള്ള ആപ്പിളിന്റെ നീക്കത്തിന്റെ ഭാഗമായി ഏറെ പ്രതീക്ഷയോടെ അവതരിപ്പിച്ച ഒന്നായിരുന്നു ടൈറ്റാനിയം ക്രെഡിറ്റ് കാര്ഡ്. ഗോള്ഡ്മാന് സാച്ച്സ് ഗ്രൂപ്പ് ഇങ്കിന്റെ പങ്കാളിത്തത്തോടെ ഓഗസ്റ്റിലാണ് ആപ്പിള് ഇതു പുറത്തിറക്കിയത്. ഹാന്സന്റെ ആരോപണത്തോടെ ആപ്പിളിന്റെ ക്രെഡിറ്റ് കാര്ഡ് അല്ഗോരിതം സ്ത്രീകളോട് വിവേചനം കാണിക്കുന്നുവെന്ന് ആക്ഷേപം ഉയരുകയും ന്യൂയോര്ക്കിലെ സാമ്പത്തിക സേവന വകുപ്പിന്റെ അന്വേഷണത്തിലേക്ക് നയിക്കുകയും ചെയ്തിട്ടുണ്ട്. വെബ് പരസ്യങ്ങള്ക്കായുള്ള അല്ഗോരിതങ്ങള്, അവരുടെ നിറം, മതം അല്ലെങ്കില് ലിംഗഭേദം എന്നിവയെ അടിസ്ഥാനമാക്കി കാഴ്ചക്കാരെ കണ്ടെത്തുന്നുണ്ട്. ഇവിടെയെല്ലാം ‘നിര്മിത ബുദ്ധി’പക്ഷപാതം കാണിക്കുന്നുണ്ട്.
സ്വകാര്യതയിലേക്കുള്ള കടന്നുകയറ്റം
നല്ല ഭക്ഷണം ലഭിക്കുന്ന ഹോട്ടലുകള് അറിയണം. അല്ലെങ്കില് വീട്ടിലേക്ക് ഒരു സാധനം വാങ്ങണം. ഇതിനായി നാം ഇപ്പോള് എന്താണ് ചെയ്യുന്നത്. ഫോണ് ഉപയോഗിച്ച് ഗൂഗിളില് തിരയും. അല്ലെങ്കില് റിവ്യൂ വീഡിയോകള് കാണും. നമ്മുടെ ഫോണിലൂടെ തിരയുന്ന ഓരോ കാര്യവും ഇപ്പോള് ഒളിച്ചിരുന്ന് ഒരാള്കൂടി കാണുന്നുണ്ട്. അത് ‘നിര്മിത ബുദ്ധി’യാണ്. നമ്മള് അയ്ക്കുന്ന ഇ-മെയിലും ഫോണ് ആശയവിനിമയവും സംഭാഷണവും തിരിച്ചറിയാനും സ്വാഭാവിക ഭാഷ മനസ്സിലാക്കാനും ‘നിര്മിത ബുദ്ധി’ക്ക് സാധിക്കും. ഇതോടെ നമുക്ക് ആവശ്യമുള്ള, അല്ലെങ്കില് നമ്മള് ഗൂഗിളില് തിരഞ്ഞ കാര്യങ്ങള് നമ്മുടെ ഫോണിലെ സാമൂഹ്യമാധ്യമ അക്കൗണ്ടുകളില് വരുന്നു. അതിപ്പോള് ഹോട്ടലുകളുടെയോ നമ്മള് തിരഞ്ഞ ഇലക്ട്രോണിക്ക് സാധനങ്ങളുടെയോ പരസ്യങ്ങളുമാകാം. വ്യക്തിഗത വിവര വിശകലനത്തിന്റെ വേഗതയും ശേഷിയും വര്ധിപ്പിച്ച് സ്വകാര്യത ലംഘിക്കുന്ന തരത്തില് വ്യക്തിഗത വിവരങ്ങള് ഉപയോഗിക്കുന്നതിനുള്ള സാധ്യത വര്ദ്ധിച്ചിരിക്കുകയാണ്.
ആള്മാറാട്ടം എന്ന അപകടം
‘നിര്മിത ബുദ്ധി’യില് ഒളിഞ്ഞിരിക്കുന്ന ഏറ്റവും വലിയ അപകടങ്ങളില് ഒന്നാണ് ഡീപ്ഫേക്ക് എന്ന ടെക്നോളജിയിലൂടെയുള്ള ആള്മാറാട്ടം. അടുത്തിടെ സോഷ്യല് മീഡിയയിലൂടെ കണ്ടുകൊണ്ടിരിക്കുന്ന എഐ ചിത്രങ്ങളും ഡീപ്ഫേക്ക് വീഡിയോകളും എല്ലാം ആള്മാറാട്ടത്തിന് ഉദാഹരണമാണ്. ആര്ട്ടിഫിഷ്യല് ഇന്റലിജന്റ്സിന്റെ സഹായത്തോടെ കൃത്രിമമായി നിര്മിക്കുന്ന, യഥാര്ത്ഥമെന്ന് തോന്നിപ്പിക്കുന്ന ചിത്രങ്ങള്, വീഡിയോകള്, ശബ്ദത്തോടുകൂടിയുള്ള ഉള്ളടക്കങ്ങളെയാണ് ഡീപ് ഫേക്കുകള് എന്ന് വിളിക്കുന്നത്. ഇതിനായി ലഭ്യമായ ഡാറ്റയില് നിന്ന് മുഖഭാവങ്ങളും ആംഗ്യങ്ങളും എന്തിന് സംസാരംവരെയുള്ള പാറ്റേണുകള് വിശകലനം ചെയ്യുകയും പഠിക്കുകയും ചെയ്യും. വളരെ പെട്ടെന്ന് തന്നെ എഐയുടെ ഫേക്ക് ചിത്രമോ വീഡിയോയോ നിര്മിക്കാന് കഴിയുന്നു. ഇവ നിര്മിക്കാന് വലിയ സാങ്കേതിക പരിജ്ഞാനവും ആവശ്യമില്ല. വ്യാജ വീഡിയോകള് നിര്മിക്കാന് സഹായിക്കുന്ന ചില ആപ്പുകളും സോഫ്റ്റ് വെയറുകളുമുണ്ട്. ഇവയെല്ലാം ഉപയോഗിച്ചാണ് പുതിയ തട്ടിപ്പുകാര് രംഗത്തെത്തിയിരിക്കുന്നത്. ഇതിലൂടെ ശബദം മാറ്റാന് കഴിയും എന്നതും തട്ടിപ്പിന്റെ വ്യാപ്തി കൂട്ടുന്നു.
മുന് അമേരിക്കന് പ്രസിഡന്റ് ഡൊണാള്ഡ് ട്രംപ് അടുത്തിടെ നടത്തിയ ഒരു പ്രസംഗം വൈറലായിരുന്നു. ഇതു ഒരു ഡീപ്ഫേക്ക് അഥവാ നിര്മ്മിത ബുദ്ധിയിലൂടെയുള്ള ആള്മാറാട്ടം ആയിരുന്നു. വീഡിയോയിലെ ചുണ്ടുകളുടെ ചലനങ്ങളും ശബ്ദവും ട്രംപിന് സമാനമായിരുന്നു, വിദഗ്ധനല്ലാത്ത ഒരാള്ക്ക് വ്യത്യാസം തിരിച്ചറിയാന് കഴിയില്ല. ഇങ്ങനെ ഭാവിയിലെ തെരഞ്ഞെടുപ്പുകളെയും നീതിന്യായ വ്യവസ്ഥകളെയും തെറ്റായ ഇത്തരം ആള്മാറാട്ടങ്ങള് ബാധിച്ചേക്കാം. ‘നിര്മിത ബുദ്ധി’ കണ്ട് ഒരുവശത്ത് ആളുകള് കയ്യടിക്കുമ്പോള് മറ്റൊരു വശത്ത് എഐയുടെ ദൂഷ്യഫലങ്ങള് ആളുകള് അനുഭവിച്ചു തുടങ്ങിക്കഴിഞ്ഞു. അടുത്തിടെയാണ് കേരളത്തില് എഐയുടെ ഡീപ്ഫേക്ക് എന്ന ടെക്നോളജിയിലൂടെ വ്യാജ വീഡിയോകോള് വഴി പണം തട്ടിയ ഒരു കേസ് രജിസ്റ്റര് ചെയ്യപ്പെട്ടത്. വാട്സാപ്പ് വീഡിയോ കോളിലൂടെ സുഹൃത്താണെന്ന് തെറ്റിദ്ധരിപ്പിച്ച് 40,000 രൂപയാണ് ഇയാളില് നിന്ന് തട്ടിയെടുത്തത്. ഡീപ്ഫേക്ക് ടെക്നോളജി ഉപയോഗിച്ച് സുഹൃത്തിന്റെ മുഖവും ശബ്ദവും ഒക്കെ വ്യാജമായി നിര്മിച്ചു വീഡിയോകോള് ചെയ്താണ് തട്ടിപ്പ് നടത്തിയതെന്ന് കേള്ക്കുമ്പോള് തന്നെ മനസിലാക്കാം എഐയുടെ മറുവശം എത്രത്തോളം അപകടകരമാണെന്ന്. ഇതേരീതി പിന്തുടര്ന്ന് മെയ് മാസത്തില് ചൈനയിലെ ഒരാള്ക്ക് നഷ്ടപെട്ടത് അഞ്ച് കോടിയിലധികം രൂപയാണ്. കിലോമീറ്ററുകള് അകലെയാണെങ്കിലും ഈ രണ്ടുപേരും പറ്റിക്കപ്പെട്ടത് യഥാര്ത്ഥമായതിനെ വെല്ലുന്നതരത്തില് സൃഷ്ടിക്കപ്പെട്ട പരിചിതമുഖങ്ങള് കണ്ടിട്ടാണ്. ആരെവേണമെങ്കിലും എങ്ങനെ വേണമെങ്കിലും ഏതു സമയത്തും എന്തു സാഹചര്യത്തിനു വേണ്ടിയും എഐ ആള്മാറാട്ടം ഉപയോഗിച്ച് കബളിപ്പിക്കാമെന്ന് ചുരുക്കം.
പരിചിതമല്ലാത്ത നമ്പറുകളില് നിന്നും ഐഡിയില് നിന്നും പരിചയമുള്ളവരുടെ വിഡിയോകോളുകള് ജാഗ്രതയോടുകൂടി എടുക്കുന്നതു വഴി ഒരുപരിധി വരെ ഇത്തരത്തിലുള്ള തട്ടിപ്പില് നിന്ന് രക്ഷനേടാന് കഴിയും.
ഡീപ്പ്ഫേക്ക് വീഡിയോ ദൃശ്യങ്ങള്ക്ക് പൊതുവെ ഗുണമേന്മയും വ്യക്തതയും വളരെ കുറവായിരിക്കും. ഇവയിലെ മാര്ക്കുകള്, പശ്ചാത്തലം, സംസാര രീതി എന്നിവയെല്ലാം ശ്രദ്ധിക്കേണ്ടതാണ്. വീഡിയോകോളിന്റെ വലിപ്പത്തിലുള്ള അസ്വാഭാവികത വഴിയും ഇത് ഡീപ് ഫേക്ക് ഉപയോഗിച്ചുള്ള തട്ടിപ്പാണോ എന്ന് മനസിലാക്കാം. ഏറ്റവുമൊടുവില് വിളിച്ചയാളുടെ യഥാര്ത്ഥ ഫോണ് നമ്പറില് വിളിച്ച് കാര്യം സ്ഥിരീകരിച്ചിട്ടുവേണം പണം അയക്കണോ വേണ്ടയോ എന്ന് തീരുമാനിക്കാന്. രാഷ്ട്രീയ രംഗത്തും ഇവയുടെ ഉപയോഗം മൂലമുള്ള പ്രശ്നങ്ങള് ഉണ്ടാകാനുള്ള സാധ്യത വളരെ കൂടുതലാണ്. വ്യാജവാര്ത്തകളോ തെറ്റായ വിവരങ്ങളോ സൃഷ്ടിക്കാനായി ഡീപ് ഫേക്കുകളെ ഉപയോഗിച്ചാല് അത് വലിയ രീതിയില് സമൂഹത്തെ ബാധിക്കും. നിമിഷ നേരംകൊണ്ട് ഇത്തരത്തിലുള്ള വീഡിയോകളും ചിത്രങ്ങളും വൈറലാകും എന്നതിനാല് തന്നെ ഇവയുടെ മുന്നേറ്റം ഏത് രീതിയില് ലോകത്തെ ബാധിക്കുമെന്ന് പറയുക അസാധ്യമാണ്. സാമ്പത്തിക തട്ടിപ്പ്, പോണോഗ്രഫി, വ്യാജവാര്ത്തകള് തുടങ്ങിയ മേഖലകളില് പോലും ഡീപ് ഫേക്ക് ഇന്ന് വലിയ രീതിയില് ദുരുപയോഗം ചെയ്യുന്നുണ്ട്.
(നാളെ: നിര്മ്മിത ബുദ്ധി നിയന്ത്രിക്കുന്ന യുദ്ധം)
പ്രതികരിക്കാൻ ഇവിടെ എഴുതുക: