ലണ്ടൻ: ലോകത്തിലെ ഏറ്റവും വലിയ ഓൺലൈൻ വിജ്ഞാനകോശമായ വിക്കിപീഡിയ, ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് (AI) ഉപയോഗിച്ച് ലേഖനങ്ങൾ നിർമ്മിക്കുന്നവർക്കെതിരെ കർശന നടപടിയുമായി രംഗത്ത്. വിക്കിപീഡിയയിലെ എൻട്രികൾ സൃഷ്ടിക്കുന്നതിനോ പരിഷ്കരിക്കുന്നതിനോ വലിയ ഭാഷാ മോഡലുകൾ (LLMs) ഉപയോഗിക്കുന്നത് നിരോധിക്കുന്ന പുതിയ നയം മാർച്ച് 20-ന് വിക്കിപീഡിയ എഡിറ്റർമാർ ഔദ്യോഗികമായി അംഗീകരിച്ചു. 404media.co, The Verge എന്നീ മാധ്യമങ്ങൾ റിപ്പോർട്ട് ചെയ്തതനുസരിച്ച്, വോട്ടിംഗിലൂടെയാണ് ഈ ചരിത്രപരമായ തീരുമാനം പാസാക്കിയത്. (wikipedia ai policy)
എന്താണ് പുതിയ നയം?
ഇംഗ്ലീഷ് ഭാഷയിലുള്ള വിക്കിപീഡിയയ്ക്ക് ബാധകമായ ഈ പുതിയ നിയമം അനുസരിച്ച്, എഐ സൃഷ്ടിച്ച വാചകങ്ങൾ പലപ്പോഴും സൈറ്റിന്റെ പ്രധാന ഉള്ളടക്ക നയങ്ങളെ ലംഘിക്കുന്നതായി കണ്ടെത്തിയിട്ടുണ്ട്. എന്നിരുന്നാലും, ഈ നിരോധനത്തിൽ പ്രധാനപ്പെട്ട രണ്ട് അപവാദങ്ങൾ അനുവദിച്ചിട്ടുണ്ട്:
കോപ്പി എഡിറ്റിംഗ്: എഡിറ്റർമാർക്ക് തങ്ങൾ സ്വന്തമായി എഴുതിയ വാചകങ്ങളിൽ അടിസ്ഥാനപരമായ തിരുത്തലുകൾ വരുത്തുന്നതിന് (Copy editing) എഐ ഉപകരണങ്ങൾ ഉപയോഗിക്കാം. എന്നാൽ ഇത് പുതിയ വിവരങ്ങൾ കൂട്ടിച്ചേർക്കാൻ പാടുള്ളതല്ല.
വിവർത്തനം: ഇംഗ്ലീഷ് ഇതര ലേഖനങ്ങൾ ഇംഗ്ലീഷിലേക്ക് വിവർത്തനം ചെയ്യാൻ എഐ ഉപയോഗിക്കാം. പക്ഷേ, വിവർത്തനം കൃത്യമാണോ എന്ന് പരിശോധിക്കാൻ ആവശ്യമായ ഉറവിട ഭാഷാ പരിജ്ഞാനം എഡിറ്റർക്ക് ഉണ്ടായിരിക്കണം എന്നത് നിർബന്ധമാണ്.
പരിശോധന എങ്ങനെ?
ചില എഴുത്തുകാരുടെ സ്വാഭാവിക ശൈലി എൽഎൽഎം ഔട്ട്പുട്ടിന് സമാനമായേക്കാം എന്ന് പുതിയ മാർഗ്ഗനിർദ്ദേശങ്ങൾ സമ്മതിക്കുന്നുണ്ട്. അതിനാൽ, എഴുത്ത് ശൈലി മാത്രം അടിസ്ഥാനമാക്കി ഒരാൾക്കെതിരെ നടപടിയെടുക്കരുതെന്ന് അവലോകകർക്ക് മുന്നറിയിപ്പ് നൽകുന്നു. പകരം, ഒരു എഡിറ്ററുടെ മുൻകാല പ്രവർത്തന ചരിത്രവും (Editing record), അവർ നൽകുന്ന വിവരങ്ങൾ വിക്കിപീഡിയയുടെ നിബന്ധനകൾക്ക് വിരുദ്ധമാണോ എന്നതുമാണ് പ്രധാന അളവുകോലായി കണക്കാക്കേണ്ടത്. (wikipedia ai policy)
പിന്നിൽ പ്രവർത്തിച്ചവർ
‘Chaotic Enby’ എന്ന പേരിൽ അറിയപ്പെടുന്ന ഇല്യാസ് ലെബ്ലു എന്ന എഡിറ്ററാണ് ഈ നിർദ്ദേശം ആദ്യമായി സമർപ്പിച്ചത്. വിക്കിപീഡിയയിലെ എഐ സൃഷ്ടിത ഉള്ളടക്കങ്ങൾ കണ്ടെത്തി തിരുത്തുന്ന എഡിറ്റർമാരുടെ കൂട്ടായ്മയായ ‘WikiProject AI Cleanup’-ഉം ഈ നിയമം തയ്യാറാക്കുന്നതിൽ പ്രധാന പങ്കുവഹിച്ചു.
എന്തുകൊണ്ട് ഈ കടുത്ത തീരുമാനം?
പ്ലാറ്റ്ഫോമിൽ എൽഎൽഎമ്മുമായി ബന്ധപ്പെട്ട അഡ്മിനിസ്ട്രേറ്റീവ് റിപ്പോർട്ടുകൾ വൻതോതിൽ വർദ്ധിച്ചതാണ് ഇത്തരമൊരു തീരുമാനത്തിലേക്ക് നയിച്ചതെന്ന് 404media റിപ്പോർട്ട് ചെയ്യുന്നു. എഐയുമായി ബന്ധപ്പെട്ട പരാതികൾ കൈകാര്യം ചെയ്യുന്നത് എഡിറ്റർമാരുടെ ജോലിഭാരം അമിതമായി വർദ്ധിപ്പിച്ചതായി ലെബ്ലു വ്യക്തമാക്കി. നേരത്തെ, പുതിയ എൻട്രികൾ നിർമ്മിക്കുന്നതിൽ മാത്രമായി ഒതുങ്ങിനിന്ന നിയന്ത്രണങ്ങളാണ് ഇപ്പോൾ വിശാലമായ ഒരു നയമായി പ്രഖ്യാപിച്ചിരിക്കുന്നത്.
മുമ്പ്, ചില ഓട്ടോമേറ്റഡ് സിസ്റ്റങ്ങളെ ആശ്രയിക്കുന്നതിനാലും ഭാവിയിൽ എഐ ഉപകരണങ്ങൾ എഡിറ്റർമാർക്ക് സഹായകരമാകുമെന്ന് കരുതിയതിനാലും വിക്കിമീഡിയ ഫൗണ്ടേഷൻ ഇത്തരം നിരോധനങ്ങൾ തടഞ്ഞുവെച്ചിരുന്നു. എന്നാൽ ഇപ്പോൾ എഐ സൃഷ്ടിച്ച വിവരങ്ങൾ നീക്കം ചെയ്യുന്നത് കമ്മ്യൂണിറ്റിക്ക് എളുപ്പമായി മാറിയിട്ടുണ്ട്. (wikipedia ai policy)
സ്റ്റാക്ക്ഓവർഫ്ലോ (Stack Overflow), ജർമ്മൻ വിക്കിപീഡിയ എന്നിവടങ്ങളിൽ നേരത്തെ നടപ്പിലാക്കിയ സമാനമായ നയങ്ങൾ മറ്റ് പ്ലാറ്റ്ഫോമുകളിലും വരുംദിവസങ്ങളിൽ പ്രതിഫലിച്ചേക്കാം. എഐ ബബിളിനെ (AI Bubble) ചുറ്റിപ്പറ്റിയുള്ള വർദ്ധിച്ചുവരുന്ന ആശങ്കകളാണ് ഇതിന് കാരണമെന്ന് ലെബ്ലു കൂട്ടിച്ചേർത്തു.

