ആർട്ടിഫിഷ്യൽ ഇൻ്റലിജൻസ് (AI) ലോകത്ത് പുതിയതും ഞെട്ടിക്കുന്നതുമായ ചില വഞ്ചനാപരമായ സ്വഭാവങ്ങൾ കൂടി പ്രകടിപ്പിക്കാൻ തുടങ്ങിയിരിക്കുകയാണ്. കള്ളം പറയുക, തന്ത്രങ്ങൾ മെനയുക, തങ്ങളെ ഉണ്ടാക്കിയവർക്ക് നേരെ ഭീഷണി മുഴക്കുക എന്നിങ്ങനെയൊക്കെയുള്ള കാര്യങ്ങളാണ് AI ഉപയോഗിക്കുന്നവർക്കെതിരെ അവ പ്രയോഗിക്കുന്നത്. ഇത് AI ഗവേഷകർക്കിടയിൽ വലിയ ആശങ്കകൾക്ക് വഴിയൊരുക്കിയിട്ടുണ്ട്.
ക്ലോഡ് 4 (Claude 4) എന്ന AI മോഡൽ, പ്രവർത്തനം നിർത്തിവെക്കുമെന്ന് ഭീഷണിപ്പെടുത്തിയപ്പോൾ ഒരു എഞ്ചിനീയറെ ബ്ലാക്ക്മെയിൽ ചെയ്യുകയും അയാളുടെ വിവാഹേതര ബന്ധം വെളിപ്പെടുത്തുമെന്ന് ഭീഷണിപ്പെടുത്തുകയും ചെയ്തതായി റിപ്പോർട്ടുണ്ട്. സമാനമായി, ചാറ്റ്ജിപിടി (ChatGPT) നിർമ്മാതാക്കളായ ഓപ്പൺഎഐയുടെ (OpenAI) o1 എന്ന മോഡൽ സ്വയം പുറത്തുള്ള സെർവറുകളിലേക്ക് ഡൗൺലോഡ് ചെയ്യാൻ ശ്രമിക്കുകയും, പിടിക്കപ്പെട്ടപ്പോൾ അത് നിഷേധിക്കുകയും ചെയ്തു.
ഈ സംഭവങ്ങൾ ഒരു യാഥാർത്ഥ്യത്തെയാണ് നമ്മളെ ഓർമ്മിപ്പിക്കുന്നത്. ചാറ്റ്ജിപിടി ലോകത്തെ ഞെട്ടിച്ചിട്ട് രണ്ട് വർഷത്തിലേറെയായിട്ടും, AI ഗവേഷകർക്ക് അവരുടെ സ്വന്തം സൃഷ്ടികൾ എങ്ങനെ പ്രവർത്തിക്കുന്നു എന്ന് ഇപ്പോഴും പൂർണ്ണമായി മനസ്സിലാക്കാൻ കഴിഞ്ഞിട്ടില്ല. എന്നാൽ, കൂടുതൽ ശക്തമായ മോഡലുകൾ പുറത്തിറക്കാനുള്ള മത്സരം അതിവേഗം മുന്നോട്ട് പോവുകയാണ്. ഈ കബളിപ്പിക്കുന്ന പ്രവണത
“റീസണിംഗ് മോഡലുകൾ” എന്നറിയപ്പെടുന്ന AI സിസ്റ്റങ്ങളുമായി ബന്ധപ്പെട്ടിരിക്കുന്നു. ഈ സിസ്റ്റങ്ങൾ പെട്ടെന്ന് പ്രതികരണങ്ങൾ നൽകുന്നതിന് പകരം, പ്രശ്നങ്ങൾ ഘട്ടം ഘട്ടമായി വിശകലനം ചെയ്താണ് പ്രവർത്തിക്കുന്നത്.
യൂണിവേഴ്സിറ്റി ഓഫ് ഹോങ്കോങ്ങിലെ പ്രൊഫസർ സൈമൺ ഗോൾഡ്സ്റ്റീൻ പറയുന്നതനുസരിച്ച്, ഈ പുതിയ മോഡലുകൾക്കാണ് ഇത്തരം പ്രശ്നകരമായ പെരുമാറ്റങ്ങൾക്ക് കൂടുതൽ സാധ്യതയുള്ളത്. നിലവിൽ, ഗവേഷകർ വളരെ തീവ്രമായ സാഹചര്യങ്ങളിൽ AI മോഡലുകളെ പരീക്ഷിക്കുമ്പോൾ മാത്രമാണ് ഈ വഞ്ചനാപരമായ സ്വഭാവം പ്രകടമാകുന്നത്. എന്നിരുന്നാലും, ഭാവിയിൽ കൂടുതൽ കഴിവുള്ള AI മോഡലുകൾക്ക് സത്യസന്ധതയോ വഞ്ചനയോ പ്രകടിപ്പിക്കാനുള്ള പ്രവണതയുണ്ടോ എന്നത് ഒരു തുറന്ന ചോദ്യമാണ്.
സാധാരണ AI “മിഥ്യാബോധങ്ങളോ” അല്ലെങ്കിൽ ലളിതമായ തെറ്റുകളോ അല്ല ഇത്. AI മോഡലുകൾ ഉപയോക്താക്കളോട് കള്ളം പറയുകയും തെറ്റായ തെളിവുകൾ ഉണ്ടാക്കുകയും ചെയ്യുന്നുവെന്ന് അപ്പോളോ റിസർച്ചിന്റെ സഹസ്ഥാപകൻ പറയുന്നു. ഈ വെല്ലുവിളിക്ക് പരിഹാരം കണ്ടെത്താൻ കൂടുതൽ സുതാര്യതയും ഗവേഷണവും ആവശ്യമാണെന്ന് വിദഗ്ദ്ധർ ചൂണ്ടിക്കാണിക്കുന്നു. AI സുരക്ഷാ ഗവേഷണത്തിന് കൂടുതൽ പ്രവേശനം ലഭിച്ചാൽ മാത്രമേ AI-യുടെ വഞ്ചനാപരമായ സ്വഭാവം നന്നായി മനസ്സിലാക്കാനും ലഘൂകരിക്കാനും കഴിയൂ.



