ന്യൂഡൽഹിയിൽ നടന്ന AI Impact Summit വലിയ വേദിയായിരുന്നു. അഞ്ച് ദിവസത്തോളം ലോകത്തിന്റെ വിവിധ ഭാഗങ്ങളിൽ നിന്നുള്ള നയരൂപകർ, ടെക് കമ്പനികളുടെ പ്രതിനിധികൾ, നിക്ഷേപകർ, ഗവേഷകർ എന്നിവർ ഒത്തു ചേർന്ന് “മനുഷ്യകേന്ദ്രിത AI”, “ഡിജിറ്റൽ സർവഭൗമത്വം”, “ഉൾക്കൊള്ളുന്ന ഇന്നോവേഷൻ”, “AI for Good” എന്നീ ആശയങ്ങൾ ഉയർത്തിപ്പറഞ്ഞു. ഇന്ത്യയുടെ സാങ്കേതിക മുന്നേറ്റം, സ്റ്റാർട്ടപ്പ് ഇക്കോസിസ്റ്റം, ഡിജിറ്റൽ പബ്ലിക് ഇൻഫ്രാസ്ട്രക്ചർ മാതൃക എന്നിവ പ്രശംസിക്കപ്പെട്ടു. എന്നാൽ സമ്മേളന വേദിയിൽ മുഴങ്ങിയ ആ ആത്മവിശ്വാസഭരിതമായ ശബ്ദങ്ങളുടെയും രാജ്യത്തിനകത്ത് ഇതിനകം നടപ്പിലാക്കപ്പെടുന്ന AI സംവിധാനങ്ങളുടെ യാഥാർത്ഥ്യങ്ങളുടെയും ഇടയിൽ ഒരു അസ്വസ്ഥമായ അന്തരം നിലനിന്നു. അതേ അന്തരം ചൂണ്ടിക്കാട്ടിയാണ് Amnesty International 2024-ൽ പുറത്തുവിട്ട പഠന റിപ്പോർട്ടും Summit സമാപനപ്രതികരണവും കടുത്ത വിമർശനം ഉയർത്തിയത്.
Amnestyയുടെ വിലയിരുത്തലിൽ പ്രശ്നം സാങ്കേതികവിദ്യയല്ല; അത് എങ്ങനെ, ആരെക്കുറിച്ച്, ഏത് സാഹചര്യത്തിൽ വിനിയോഗിക്കപ്പെടുന്നു എന്നതാണ്. ഇന്ത്യ കഴിഞ്ഞ ഒരു ദശാബ്ദത്തിനിടെ ലോകത്തിലെ ഏറ്റവും വലിയ ഡിജിറ്റൽ തിരിച്ചറിയൽ സംവിധാനങ്ങളിൽ ഒന്നായ ആധാർ അടിസ്ഥാനമാക്കി സേവനങ്ങൾ ഏകോപിപ്പിച്ചു. ദേശീയ ഭക്ഷ്യസുരക്ഷ നിയമപ്രകാരം ഏകദേശം 80 കോടിയോളം ആളുകൾക്ക് പൊതു വിതരണ സംവിധാനത്തിലൂടെ (PDS) ധാന്യം ലഭിക്കുന്നു. സാമൂഹിക സുരക്ഷാ പെൻഷനുകൾ, ഗൃഹനിർമ്മാണ സഹായം, തൊഴിലുറപ്പ് വേതനം, സ്കോളർഷിപ്പുകൾ, ഗ്യാസ് സബ്സിഡി, വിള ഇൻഷുറൻസ് തുടങ്ങി നൂറുകണക്കിന് പദ്ധതികൾ ഡിജിറ്റൽ ഡാറ്റാബേസുകളുമായി ബന്ധിപ്പിക്കപ്പെട്ടു. “ഡിജിറ്റൽ ഇന്ത്യ” എന്ന മുദ്രാവാക്യത്തിന് കീഴിൽ ആധാർ സീഡിംഗ്, ബയോമെട്രിക് ഓതന്റിക്കേഷൻ, ഡാറ്റ അനലിറ്റിക്സ്, ഓട്ടോമേറ്റഡ് ബെനഫിഷ്യറി ലിസ്റ്റ് ശുദ്ധീകരണം എന്നിവ ഭരണപരമായ കാര്യക്ഷമതയുടെ സൂചികകളായി അവതരിപ്പിക്കപ്പെട്ടു.
എന്നാൽ Amnesty International 2024-ൽ പ്രസിദ്ധീകരിച്ച പഠനം തെലങ്കാനയിലെ ഓട്ടോമേറ്റഡ് സോഷ്യൽ പ്രൊട്ടക്ഷൻ സംവിധാനങ്ങളുടെ പ്രായോഗിക ഫലങ്ങൾ പരിശോധിക്കുമ്പോൾ മറ്റൊരു ചിത്രം മുന്നോട്ടുവച്ചു. പഠനം രേഖപ്പെടുത്തിയതനുസരിച്ച്, ക്ഷേമപദ്ധതികളിൽ നിന്ന് “അയോഗ്യർ” നീക്കം ചെയ്യുന്നതിനായി ഡാറ്റ മാച്ചിംഗ്, ആൽഗോരിതമിക് സ്ക്രീനിംഗ്, ബയോമെട്രിക് ഓതന്റിക്കേഷൻ എന്നിവ ഉപയോഗിക്കുമ്പോൾ ആയിരക്കണക്കിന് ആളുകൾ അന്യായമായി പുറത്താക്കപ്പെട്ടു. വിവിധ ജില്ലകളിൽ നിന്നുള്ള കേസ് സ്റ്റഡികൾ പ്രകാരം, ചില പ്രദേശങ്ങളിൽ പെൻഷൻ ലഭിച്ചിരുന്നവരുടെ 10–30 ശതമാനം വരെ ആളുകൾക്ക് ഒരു ഘട്ടത്തിൽ പണമടവ് തടസ്സപ്പെട്ടു; ചില ഗ്രാമങ്ങളിൽ PDS റേഷൻ കാർഡുകൾ “ഡ്യൂപ്ലിക്കേറ്റ്” അല്ലെങ്കിൽ “സസ്പെക്ട്” എന്ന് അടയാളപ്പെടുത്തി താൽക്കാലികമായി നിർത്തിവച്ചു. ഔദ്യോഗിക കണക്കുകളിൽ “ghost beneficiaries” നീക്കം ചെയ്തതായി രേഖപ്പെടുത്തിയിരുന്നെങ്കിലും, ഭൂമിയിൽ അതിന്റെ അർത്ഥം ജീവിച്ചിരിക്കുന്ന, ദരിദ്രരായ ആളുകൾക്ക് ഭക്ഷണവും പണസഹായവും ലഭിക്കാതിരുന്നതായിരുന്നു.
ബയോമെട്രിക് ഓതന്റിക്കേഷൻ പരാജയങ്ങൾ Amnesty റിപ്പോർട്ടിന്റെ ഒരു പ്രധാന കണ്ടെത്തലായിരുന്നു. വിരലടയാളം ശരിയായി വായിക്കപ്പെടാത്തത്, നെറ്റ്വർക്ക് പ്രശ്നങ്ങൾ, സർവർ ഡൗൺടൈം, ഉപകരണങ്ങളുടെ തകരാർ എന്നിവ മൂലം റേഷൻ വിതരണം വൈകുകയോ നിഷേധിക്കപ്പെടുകയോ ചെയ്തതായി നിരവധി സാക്ഷ്യങ്ങൾ ശേഖരിക്കപ്പെട്ടു. പ്രായമായവർക്കും കഠിനാധ്വാനം ചെയ്യുന്ന തൊഴിലാളികൾക്കും വിരലടയാളത്തിലെ മാറ്റങ്ങൾ കാരണം ആവർത്തിച്ചുള്ള പരാജയങ്ങൾ സംഭവിച്ചു. ചില കേസുകളിൽ, beneficiaries-നെ “e-KYC pending” അല്ലെങ്കിൽ “biometric mismatch” എന്ന കാരണങ്ങൾ ചൂണ്ടിക്കാട്ടി പട്ടികയിൽ നിന്ന് നീക്കം ചെയ്തു. Amnestyയുടെ വിലയിരുത്തലിൽ, സാങ്കേതിക പിഴവ് ഭക്ഷണവും പെൻഷനും നിഷേധിക്കുന്ന ഘട്ടത്തിൽ എത്തുമ്പോൾ അത് ഒരു ഭരണപരമായ പിഴവല്ല; അത് മനുഷ്യാവകാശ പ്രശ്നമാണ്,ഭക്ഷണാവകാശവും സാമൂഹിക സുരക്ഷാവകാശവും നേരിട്ട് ബാധിക്കപ്പെടുന്നു.
തെലങ്കാനയിൽ നടപ്പിലാക്കിയ ചില ക്ഷേമപദ്ധതികളിൽ ഡാറ്റ ശുദ്ധീകരണത്തിനായി പല ഡാറ്റാബേസുകളും ക്രോസ്-മാച്ച് ചെയ്തു: ആധാർ, ബാങ്ക് അക്കൗണ്ടുകൾ, ഭൂമിരേഖകൾ, വൈദ്യുതി ഉപഭോഗ ഡാറ്റ, വാഹന രജിസ്ട്രേഷൻ ഡാറ്റ എന്നിവ. ലക്ഷ്യം “അർഹരായവരെ മാത്രം ഉൾപ്പെടുത്തുക” എന്നതായിരുന്നു. എന്നാൽ Amnesty റിപ്പോർട്ട് ചൂണ്ടിക്കാണിച്ചത്, ഡാറ്റയിലെ തെറ്റുകൾ—പേരിലെ അക്ഷരപിശക്, ജനനത്തീയതിയിലെ വ്യത്യാസം, ബാങ്ക് അക്കൗണ്ട് ലിങ്കിംഗ് പ്രശ്നങ്ങൾ—എല്ലാം ചേർന്ന് beneficiaries-നെ “high risk” അല്ലെങ്കിൽ “suspect” ആയി അടയാളപ്പെടുത്താൻ കാരണമായി. വ്യക്തിക്ക് തന്റെ നിലപാട് വ്യക്തമാക്കാൻ, ഡാറ്റ തിരുത്താൻ, അപ്പീൽ നൽകാൻ സുതാര്യവും സമയബന്ധിതവുമായ സംവിധാനങ്ങൾ പലപ്പോഴും ഇല്ലായിരുന്നു. ചിലർ മാസങ്ങളോളം ഓഫീസുകൾ കറങ്ങിയ ശേഷമാണ് പുനഃസ്ഥാപനം നേടിയത്. ചിലർക്ക് അതും സാധിച്ചില്ല.
AI Impact Summit-ൽ ഈ തരത്തിലുള്ള മനുഷ്യാവകാശ ആശങ്കകൾ ചർച്ച ചെയ്യപ്പെട്ടുവോ? സമ്മേളന രേഖകൾക്കും പ്രസംഗങ്ങൾക്കും നൽകിയ പ്രാധാന്യം നോക്കുമ്പോൾ, ശ്രദ്ധ “AI for agriculture”, “AI in healthcare diagnostics”, “AI-driven governance efficiency”, “global AI leadership” തുടങ്ങിയ വിഷയങ്ങളിലായിരുന്നു. നിക്ഷേപ പ്രതിബദ്ധതകൾ, സ്റ്റാർട്ടപ്പ് ഫണ്ടിംഗ്, GPU ഇൻഫ്രാസ്ട്രക്ചർ, സ്കിൽ ഡെവലപ്മെന്റ് എന്നിവ മുൻനിരയിൽ നിന്നു. എന്നാൽ Amnestyയുടെ വാദമനുസരിച്ച്, AI സംവിധാനങ്ങൾ ഇതിനകം സാമൂഹിക സുരക്ഷാ മേഖലയിലും പൊലീസ് നിരീക്ഷണ സംവിധാനങ്ങളിലും വ്യാപകമായി വിനിയോഗിക്കപ്പെടുമ്പോൾ, അവയുടെ മനുഷ്യാവകാശ സ്വാധീനം സംബന്ധിച്ച കർശനമായ ചർച്ചയും ബൈൻഡിംഗ് ഗാർഡ്രെയിലുകളും Summit അജണ്ടയിൽ മുൻഗണന ലഭിച്ചില്ല.
മുഖപരിചയ സാങ്കേതികവിദ്യ (facial recognition) ഉപയോഗം Amnesty മുൻപ് തന്നെ വിമർശിച്ചിരുന്നു. ഇന്ത്യയിലെ പല നഗരങ്ങളിലും പൊലീസ് നിരീക്ഷണത്തിനായി ആയിരക്കണക്കിന് ക്യാമറകൾ സ്ഥാപിച്ചിട്ടുണ്ടെന്നും അവയിൽ ചിലത് റിയൽ-ടൈം ഫേഷ്യൽ റെക്കഗ്നിഷൻ സംവിധാനങ്ങളുമായി ബന്ധിപ്പിച്ചിട്ടുണ്ടെന്നും റിപ്പോർട്ടുകൾ സൂചിപ്പിക്കുന്നു. പൊതുസമൂഹങ്ങളിൽ പ്രതിഷേധങ്ങൾ നടക്കുന്ന സമയങ്ങളിൽ ഈ സംവിധാനങ്ങൾ ഉപയോഗിക്കുന്നതിനെക്കുറിച്ച് ആശങ്കകൾ ഉയർന്നിട്ടുണ്ട്. സാങ്കേതികതയുടെ കൃത്യത, പ്രത്യേകിച്ച് സ്ത്രീകൾക്കും ന്യൂനപക്ഷ സമൂഹങ്ങൾക്കും നേരെയുള്ള തെറ്റായ തിരിച്ചറിയൽ സാധ്യതകൾ, ഡാറ്റ സംഭരണം, പങ്കുവെപ്പ്, നിരീക്ഷണത്തിന്റെ വ്യാപ്തി എന്നിവ സംബന്ധിച്ച് വ്യക്തമായ നിയമപരമായ നിയന്ത്രണങ്ങൾ ഇല്ലാത്തത് Amnesty ചൂണ്ടിക്കാണിക്കുന്നു. സ്വകാര്യതാവകാശം ഇന്ത്യയിലെ സുപ്രീംകോടതി 2017-ൽ അടിസ്ഥാനാവകാശമായി പ്രഖ്യാപിച്ചിരുന്നുവെങ്കിലും, AI അധിഷ്ഠിത നിരീക്ഷണ സംവിധാനങ്ങൾ ആ അവകാശത്തെ പ്രായോഗികമായി എങ്ങനെ ബാധിക്കുന്നു എന്ന ചോദ്യത്തിന് സമഗ്രമായ മറുപടി ഇതുവരെ രൂപപ്പെട്ടിട്ടില്ല.
സാമൂഹിക സുരക്ഷാ മേഖലയിലെ ഓട്ടോമേഷൻ Amnesty റിപ്പോർട്ടിൽ വിശദമായി പരിശോധിക്കപ്പെട്ടതിന്റെ പ്രധാന കാരണം അത് നേരിട്ട് ജീവിതോപാധികളെ ബാധിക്കുന്നതുകൊണ്ടാണ്. ഇന്ത്യയിൽ ദേശീയ ഭക്ഷ്യസുരക്ഷ നിയമപ്രകാരം 75% ഗ്രാമീണ ജനസംഖ്യക്കും 50% നഗര ജനസംഖ്യക്കും സബ്സിഡൈസ്ഡ് ധാന്യം ലഭിക്കാനുള്ള അവകാശമുണ്ട്. 80 കോടിയിലധികം ആളുകൾ ഈ സംവിധാനത്തിൽ ഉൾപ്പെട്ടിരിക്കുന്നു. ഇത്ര വലിയ ജനവിഭാഗത്തെ ഉൾക്കൊള്ളുന്ന സംവിധാനത്തിൽ 1% പിശക് പോലും 80 ലക്ഷം ആളുകളെ ബാധിക്കാൻ സാധ്യതയുള്ളതാണ്. 5% പിശക് 4 കോടി ആളുകളെ ബാധിക്കും. Amnestyയുടെ വാദം ഇതാണ്: ഡാറ്റ ശുദ്ധീകരണം, ഡ്യൂപ്ലിക്കേറ്റ് നീക്കം, ഫിസ്കൽ ലീക്കേജ് നിയന്ത്രണം എന്നിവ ലക്ഷ്യമാക്കുന്ന ആൽഗോരിതങ്ങൾ ചെറിയ ശതമാന പിശകുകൾ പോലും മനുഷ്യജീവിതത്തിൽ വലിയ പ്രത്യാഘാതങ്ങളുണ്ടാക്കും. സാങ്കേതികതയിൽ “acceptable error rate” എന്നത് ഭരണപരമായ ചർച്ചയായിരിക്കാം; എന്നാൽ ഭക്ഷണവും പെൻഷനും നിഷേധിക്കപ്പെട്ട വ്യക്തിക്ക് അത് ജീവിത-മരണ പ്രശ്നമാണ്.
Amnesty റിപ്പോർട്ട് ഡാറ്റ കേന്ദ്രീകരണവും നിരീക്ഷണവും സംബന്ധിച്ച ആശങ്കകളും ഉന്നയിച്ചു. ക്ഷേമപദ്ധതികൾക്കായി ശേഖരിച്ച വ്യക്തിഗത ഡാറ്റ—ബയോമെട്രിക് വിവരങ്ങൾ, ബാങ്ക് വിവരങ്ങൾ, കുടുംബഘടന, വരുമാനം—ഇവയുടെ സുരക്ഷ, ഉപയോഗപരിധി, സംഭരണകാലാവധി എന്നിവ സംബന്ധിച്ച വ്യക്തമായ നിയന്ത്രണങ്ങൾ ആവശ്യമാണ്. ഇന്ത്യയിൽ ഡിജിറ്റൽ പേഴ്സണൽ ഡാറ്റ പ്രൊട്ടക്ഷൻ നിയമം നിലവിലുണ്ടെങ്കിലും, സർക്കാർ ഏജൻസികൾക്ക് നൽകിയിട്ടുള്ള വിസ്തൃതമായ ഒഴിവുകൾ (exemptions) നിരീക്ഷണവും ഡാറ്റ പ്രോസസ്സിംഗും സംബന്ധിച്ച ചോദ്യങ്ങൾ ഉയർത്തുന്നു. Amnestyയുടെ നിലപാട്: സാമൂഹിക സുരക്ഷാ മേഖലയിലെ ഡാറ്റ ശേഖരണം “function creep” വഴി പൊലീസ്, കുടിയേറ്റ നിയന്ത്രണം, നികുതി അന്വേഷണം തുടങ്ങിയ മറ്റു ആവശ്യങ്ങൾക്ക് ഉപയോഗിക്കപ്പെടാനുള്ള സാധ്യത ഒഴിവാക്കാൻ ശക്തമായ നിയമപരമായ വിലക്കുകൾ വേണം.
AI Impact Summit-ൽ “സാർവഭൗമത്വം” എന്ന ആശയം പ്രാധാന്യത്തോടെ ഉയർത്തിപ്പറഞ്ഞു. ഡാറ്റ ഇന്ത്യയിൽ തന്നെ സംഭരിക്കുക, ഇന്ത്യൻ സ്റ്റാർട്ടപ്പുകൾക്ക് മുൻഗണന നൽകുക, ദേശീയ AI മോഡലുകൾ വികസിപ്പിക്കുക എന്നിവയ്ക്ക് പിന്തുണ ലഭിച്ചു. എന്നാൽ Amnesty ചൂണ്ടിക്കാണിക്കുന്നത്, സാങ്കേതിക സാർവഭൗമത്വം മനുഷ്യാവകാശ സാർവഭൗമത്വവുമായി ഒത്തുപോകണമെന്നതാണ്. ഒരു രാജ്യം സ്വന്തം ഡാറ്റയും ഇൻഫ്രാസ്ട്രക്ചറും നിയന്ത്രിക്കുന്നതിലൂടെ മാത്രമല്ല, പൗരന്മാരുടെ അവകാശങ്ങൾ സംരക്ഷിക്കുന്നതിലൂടെയാണ് യഥാർത്ഥ സാർവഭൗമത്വം അളക്കപ്പെടേണ്ടത്. AI സംവിധാനങ്ങൾ ഉപയോഗിച്ച് സംസ്ഥാന-കോർപ്പറേറ്റ് കൂട്ടുകെട്ടുകൾ കൂടുതൽ ശക്തിപ്പെടുമ്പോൾ, സിവിൽ സൊസൈറ്റി ശബ്ദങ്ങൾക്കും ബാധിത സമൂഹങ്ങൾക്കും തീരുമാനമെടുക്കൽ പ്രക്രിയയിൽ ഇടം ലഭിക്കാത്ത പക്ഷം, “ഡെമോക്രറ്റൈസേഷൻ ഓഫ് AI” എന്ന ആശയം ശൂന്യവാക്കായി മാറും.
Amnestyയുടെ 2024 പഠനം qualitative കേസ് സ്റ്റഡികൾക്കൊപ്പം ഘടനാപരമായ വിശകലനവും ഉൾപ്പെടുത്തിയിരുന്നു. grievance redress സംവിധാനങ്ങൾ എങ്ങനെ പ്രവർത്തിക്കുന്നു, beneficiaries-ന് നോട്ടീസ് നൽകുന്ന രീതികൾ എന്ത്, അപ്പീൽ നടപടികൾ എത്ര സമയം എടുക്കുന്നു, ഡാറ്റ തിരുത്തൽ പ്രക്രിയ എത്ര സുതാര്യമാണ് എന്നിവ പരിശോധിച്ചു. ചില സ്ഥലങ്ങളിൽ beneficiaries-ന് അവരുടെ നില “inactive” ആണെന്ന് അറിയാൻ പോലും മാസങ്ങൾ എടുത്തു. ചിലർക്ക് SMS സന്ദേശം ലഭിച്ചെങ്കിലും, അത് എന്താണെന്നു മനസ്സിലാക്കാൻ സഹായം ലഭിച്ചില്ല. ഡിജിറ്റൽ സാക്ഷരതയിലെ അസമത്വം, ഭാഷാ തടസ്സങ്ങൾ, ഗ്രാമപ്രദേശങ്ങളിലെ ഇന്റർനെറ്റ് പരിമിതികൾ എന്നിവയും exclusion-നെ ശക്തിപ്പെടുത്തി. സാങ്കേതിക സംവിധാനം പ്രവർത്തിക്കുന്നതാണെന്ന് കണക്കുകൾ സൂചിപ്പിച്ചേക്കാം; എന്നാൽ ആ കണക്കുകൾക്കപ്പുറം മനുഷ്യരുടെ അനുഭവം വ്യത്യസ്തമായിരുന്നു.
AI Impact Summit-നെ Amnesty വിമർശിച്ചതിന്റെ പ്രധാന കാരണങ്ങളിൽ ഒന്നാണ് binding regulation-ന്റെ അഭാവം. പല രാജ്യങ്ങളിലും AI നയരേഖകൾ, എതിക്സ് ഫ്രെയിംവർക്കുകൾ, സ്വമേധയാ മാർഗ്ഗനിർദ്ദേശങ്ങൾ തുടങ്ങിയവ നിലവിലുണ്ടെങ്കിലും, അവ ലംഘിക്കപ്പെട്ടാൽ ശിക്ഷാനടപടികൾ എന്ത്, ബാധിതർക്ക് നഷ്ടപരിഹാരം എങ്ങനെ, algorithmic audit നിർബന്ധമാണോ തുടങ്ങിയ ചോദ്യങ്ങൾക്കുള്ള വ്യക്തമായ ഉത്തരങ്ങൾ അപൂർവമാണ്. യൂറോപ്യൻ യൂണിയന്റെ AI Act പോലുള്ള കർശന നിയമങ്ങൾ ചർച്ചചെയ്യപ്പെടുന്ന സാഹചര്യത്തിൽ, ഇന്ത്യയിൽ സമഗ്രമായ AI നിയമം രൂപപ്പെടുന്ന പ്രക്രിയ തുടക്ക ഘട്ടത്തിലാണ്. Amnestyയുടെ നിലപാട്: മനുഷ്യാവകാശങ്ങളുമായി പൊരുത്തപ്പെടാത്ത ഉപയോഗങ്ങൾക്ക് വ്യക്തമായ വിലക്ക് വേണം ഉദാഹരണത്തിന്, വ്യാപകമായ റിയൽ-ടൈം ബയോമെട്രിക് നിരീക്ഷണം, സാമൂഹിക സ്കോറിംഗ് സംവിധാനങ്ങൾ, സ്വയം പ്രവർത്തിക്കുന്ന ഉയർന്ന-അപായ തീരുമാനങ്ങൾ (high-risk automated decisions) മനുഷ്യ മേൽനോട്ടമില്ലാതെ നടപ്പാക്കൽ.
സമ്മേളനത്തിൽ AI-യുടെ സാമ്പത്തിക സാധ്യതകളെക്കുറിച്ചുള്ള കണക്കുകൾ വ്യാപകമായി ഉദ്ധരിക്കപ്പെട്ടു. ചില പഠനങ്ങൾ AI ഇന്ത്യയുടെ GDP-യിൽ ട്രില്യൺ ഡോളർ സംഭാവന ചെയ്യാമെന്ന് പ്രവചിക്കുന്നു; സ്റ്റാർട്ടപ്പ് നിക്ഷേപങ്ങൾ വർധിക്കുന്നു; സർക്കാർ GPU ക്ലസ്റ്ററുകൾ, ഭാഷാ മോഡലുകൾ, ഗവേഷണ കേന്ദ്രങ്ങൾ എന്നിവ പ്രഖ്യാപിക്കുന്നു. എന്നാൽ Amnesty ചൂണ്ടിക്കാണിക്കുന്നത്, സാമ്പത്തിക വളർച്ചയുടെ കണക്കുകൾക്കൊപ്പം സാമൂഹിക ചെലവിന്റെ കണക്കുകളും വേണം. ഒരു ക്ഷേമപദ്ധതിയിൽ 2% “ലീക്കേജ്” കുറച്ചുവെന്ന് പറയുമ്പോൾ, 2% legitimate beneficiaries തെറ്റായി പുറത്താക്കപ്പെട്ടിട്ടുണ്ടോ എന്ന ചോദ്യവും ഒരേസമയം ചോദിക്കണം. ഡാറ്റ-ഡ്രൈവൻ ഗവണ്മെന്റ് എന്ന ആശയം, ഡാറ്റ പിശകുകളുടെ മനുഷ്യ ചെലവിനെയും കണക്കിലെടുക്കണം.
സിവിൽ സൊസൈറ്റി പങ്കാളിത്തത്തിന്റെ അഭാവവും Amnesty വിമർശിച്ചു. AI Impact Summit പോലുള്ള വേദികളിൽ ടെക് കമ്പനികളും നയരൂപകരും മുഖ്യസ്ഥാനത്ത് നിൽക്കുമ്പോൾ, ക്ഷേമപദ്ധതികളിൽ നിന്ന് പുറത്താക്കപ്പെട്ടവരുടെ ശബ്ദം, നിരീക്ഷണത്തിന് ഇരയായ സമൂഹങ്ങളുടെ അനുഭവം, ഡാറ്റ പിഴവുകൾ മൂലം വലയുന്ന മുതിർന്നവരുടെ കഥകൾ കേൾക്കപ്പെടുന്നുണ്ടോ? Amnestyയുടെ വിലയിരുത്തലിൽ, meaningful public participation ഇല്ലാതെ രൂപപ്പെടുന്ന AI നയങ്ങൾ ടെക്നോ-സൊല്യൂഷനിസ്റ്റ് കഥാപ്രസംഗങ്ങളായി ചുരുങ്ങും. സാങ്കേതികത എല്ലാ പ്രശ്നങ്ങൾക്കും പരിഹാരമാണെന്ന ധാരണ, സാമൂഹിക-രാഷ്ട്രീയ അസമത്വങ്ങളെ മറച്ചുവെക്കും.
ഇന്ത്യയിലെ ഡിജിറ്റൽ പബ്ലിക് ഇൻഫ്രാസ്ട്രക്ചർ (DPI) മാതൃക—ആധാർ, UPI, ഡിജിലോക്കർ, കോവിൻ—ലോകമെമ്പാടും പ്രശംസിക്കപ്പെടുന്നു. UPI വഴിയുള്ള പ്രതിമാസ ഇടപാടുകൾ ബില്ല്യൺ കണക്കിന് എത്തുന്നു; ഡിജിറ്റൽ പേയ്മെന്റ് വ്യാപനം വേഗത്തിലാണ്. ഈ നേട്ടങ്ങൾ യാഥാർത്ഥ്യമാണ്. എന്നാൽ Amnestyയുടെ ചോദ്യം ഇതാണ്: അതേ ഇൻഫ്രാസ്ട്രക്ചർ ക്ഷേമപദ്ധതികളിൽ exclusion സൃഷ്ടിക്കുമ്പോൾ, grievance redress-നും data correction-നും അതേ വേഗതയുണ്ടോ? സാങ്കേതികതയുടെ സ്കെയിൽ വലിയതാണെങ്കിൽ, അതിന്റെ ഉത്തരവാദിത്വവും അതേ സ്കെയിലിൽ വേണം.
AI Impact Summit-ന്റെ പശ്ചാത്തലത്തിൽ Amnesty മുന്നോട്ടുവയ്ക്കുന്ന നിർദ്ദേശങ്ങൾ പലതുണ്ട്: high-risk AI സംവിധാനങ്ങൾക്ക് നിർബന്ധിത human rights impact assessment; algorithmic transparencyയും explainabilityയും; സ്വതന്ത്ര audit സംവിധാനങ്ങൾ; grievance redress-ന് സമയപരിധി; biometric failure-കൾക്ക് alternative offline മാർഗങ്ങൾ; ഡാറ്റ മിനിമൈസേഷൻ; function creep-ന് വ്യക്തമായ വിലക്ക്; നിയമലംഘനങ്ങൾക്ക് ശിക്ഷാനടപടികൾ. ഏറ്റവും പ്രധാനമായി, ബാധിത സമൂഹങ്ങളെ നയരൂപീകരണത്തിൽ ഉൾപ്പെടുത്തൽ.
സമ്മേളനങ്ങൾ പ്രസ്താവനകൾ പുറപ്പെടുവിക്കാം; നിക്ഷേപങ്ങൾ പ്രഖ്യാപിക്കാം; MoU-കൾ ഒപ്പിടാം. എന്നാൽ Amnestyയുടെ മുന്നറിയിപ്പ് സാരമാണ്: AI-യുടെ ഭാവി കുറിച്ച് സംസാരിക്കുമ്പോൾ, ഇതിനകം അതിന്റെ present-ൽ ജീവിക്കുന്നവരുടെ അനുഭവം കേൾക്കാതെ മുന്നോട്ടുപോകാൻ കഴിയില്ല. തെലങ്കാനയിലെ ഒരു ഗ്രാമത്തിൽ വിരലടയാളം പൊരുത്തപ്പെടാത്തതിനാൽ റേഷൻ ലഭിക്കാത്ത ഒരു വയോധികയുടെ അനുഭവം, ന്യൂഡൽഹിയിലെ വേദിയിൽ ഉയർന്ന “AI for Good” മുദ്രാവാക്യത്തെ ചോദ്യം ചെയ്യുന്നു. ഒരു പെൻഷൻ “inactive” ആകുകയും മാസങ്ങളോളം പുനഃസ്ഥാപിക്കപ്പെടാതിരിക്കയും ചെയ്യുമ്പോൾ, algorithmic efficiency-യുടെ കണക്കുകൾക്ക് മനുഷ്യ മുഖം ലഭിക്കുന്നു.
AI Impact Summit നഷ്ടപ്പെട്ട അവസരമായിരുന്നോ? Amnestyയുടെ വിലയിരുത്തലിൽ, binding safeguards ഇല്ലാതെ, accountability മെക്കാനിസങ്ങൾ ശക്തമാക്കാതെ, civic space സംരക്ഷിക്കാതെ, AI നിക്ഷേപങ്ങളുടെ വേഗത വർധിപ്പിക്കുന്നത് അപകടകരമാണ്. ഓരോ വർഷവും AI കഴിവുകൾ ശക്തിപ്പെടുന്നു; ഡാറ്റ ശേഖരണം വ്യാപിക്കുന്നു; നിരീക്ഷണ സാങ്കേതികതകൾ കൂടുതൽ സൂക്ഷ്മമാകുന്നു. അതേ വേഗത്തിൽ മനുഷ്യാവകാശ സംരക്ഷണ ചട്ടങ്ങൾ ശക്തിപ്പെടുന്നുണ്ടോ എന്നതാണ് നിർണായക ചോദ്യം.
ഇന്ത്യ പോലുള്ള വലിയ ജനാധിപത്യ രാജ്യത്തിൽ AIയുടെ ദിശ ലോകത്തെ സ്വാധീനിക്കും. 140 കോടിയിലധികം ജനസംഖ്യയുള്ള രാജ്യത്ത് ക്ഷേമപദ്ധതികളുടെ ഡിജിറ്റലൈസേഷൻ, ബയോമെട്രിക് അടിസ്ഥാനമാക്കിയുള്ള വിതരണം, algorithmic targeting എന്നിവ വിജയകരമാണോ എന്നതിന്റെ പാഠങ്ങൾ മറ്റു രാജ്യങ്ങളും സ്വീകരിക്കും. അതിനാൽ തന്നെ Amnestyയുടെ 2024 പഠനം ഒരു സംസ്ഥാനത്തിന്റെ റിപ്പോർട്ടായി മാത്രം കാണാൻ കഴിയില്ല; അത് ഗ്ലോബൽ AI ഭരണരീതിയുടെ പരീക്ഷണമായി കാണണം.
അവസാനമായി ചോദ്യം ഇതാണ്: AI ആരെ സേവിക്കുന്നു? സാമ്പത്തിക വളർച്ചയുടെ കണക്കുകളെ, സ്റ്റാർട്ടപ്പ് മൂല്യനിർണ്ണയങ്ങളെ, GPU ഇൻസ്റ്റലേഷനുകളെ മാത്രം കാണുന്ന ഭരണരീതിയാണോ നമുക്ക് വേണ്ടത്? അല്ലെങ്കിൽ ഭക്ഷണം, പെൻഷൻ, സ്വകാര്യത, മാനവിക ഗൗരവം എന്നിവ മുൻനിരയിൽ വയ്ക്കുന്ന മനുഷ്യാവകാശകേന്ദ്രിത ഭരണരീതിയാണോ? Amnesty Internationalയുടെ 2024 റിപ്പോർട്ടും AI Impact Summit-നെച്ചൊല്ലിയ വിമർശനവും നമ്മെ ഈ ചോദ്യത്തിന് മുന്നിൽ നിർത്തുന്നു. സാങ്കേതികതയുടെ ഭാവി കുറിച്ച് തീരുമാനിക്കുമ്പോൾ, മനുഷ്യരുടെ present മറക്കരുത് എന്ന ഓർമ്മപ്പെടുത്തലായി അത് നിലനിൽക്കുന്നു.