സെമാന്റിക് ഡ്രിഫ്റ്റ്: എ.ഐ. നിർമ്മാതാക്കളുടെ ഭാഷയെ വ്യക്തമാക്കുന്നു

2026 മാർച്ച് 5-ന്, Longbeard-ന്റെ CEO ആയ Matthew Harvey Sanders, Thomistic Institute-ൽ “The Semantic Drift: Demystifying the Language of AI Builders” എന്ന തലക്കെട്ടിൽ തന്റെ പ്രസംഗം അവതരിപ്പിച്ചു.കൃത്രിമ ബുദ്ധി: സദ്ഗുണത്തിന് ഒരു ഉപകരണം?റോമിലെ Pontifical University of Saint Thomas Aquinas (Angelicum) ൽ നടന്ന ” പരിപാടിയിൽ.
ഈ പ്രസംഗത്തിൽ, അദ്ദേഹം സിലിക്കോൺ വാലി വികസകരുടെ യന്ത്ര പഠനത്തെ വിവരണം ചെയ്യാൻ ഉപയോഗിക്കുന്ന തെറ്റായ, മനുഷ്യവൽക്കരണ ഭാഷയെ വിമർശിക്കുന്നു. കൃത്രിമ ബുദ്ധി ശരിയായി ഉപയോഗിക്കാൻ, നാം ഒരു കഠിനമായ കത്തോലിക്കാ ഓന്റോളജി പുനഃസ്ഥാപിക്കണം, ഈ സംവിധാനങ്ങളെ നൈതിക ഏജന്റുകളായി അല്ല, മെക്കാനിക്കൽ ഉപകരണങ്ങളായി കണക്കാക്കണം എന്ന് അദ്ദേഹം വാദിക്കുന്നു.
I. പരിചയം: സെമാന്റിക് ഡ്രിഫ്റ്റും പൊതു ചതുരവും
പിതാക്കന്മാരേ, പ്രിയപ്പെട്ട അധ്യാപകരേ, Angelicum-ന്റെ അതിഥികളേ, ഈ ചർച്ച സംഘടിപ്പിച്ചതിന് Thomistic Institute-ന് നന്ദി.
നാം ഒരു പുതിയ കാലഘട്ടത്തിലേക്ക് കടക്കുമ്പോൾ, വിവരങ്ങളുടെ കാലഘട്ടത്തിന്റെ ഉറച്ച ഉറച്ചതുകൾ വിട്ട്, ബുദ്ധിയുടെ കാലഘട്ടത്തിന്റെ വലുതും അജ്ഞാതമായ കോസ്മോസിലേക്ക് കടക്കുമ്പോൾ, നമ്മൾ ഒരു ഗൗരവമായ നാവികതാ വെല്ലുവിളിയെ നേരിടുന്നു. ഈ സമ്മേളനത്തിന്റെ ഹൃദയത്തിൽ ഉള്ള അടിയന്തരമായ ചോദ്യത്തിന്—കൃത്രിമ ബുദ്ധി യഥാർത്ഥത്തിൽ 'സദ്ഗുണത്തിന് ഒരു ഉപകരണം' ആകാമോ—നാം ആദ്യം ഒരു വെല്ലുവിളിയെ നേരിടണം, അത് സോഫ്റ്റ്വെയർ എഞ്ചിനീയറിങ്ങിന്റെ അല്ല, പക്ഷേ ഭാഷയുടെ വെല്ലുവിളിയാണ്.
നമ്മുടെ ആധുനിക കഷ്ടതയുടെ കേന്ദ്രത്തിൽ കൃത്രിമ ബുദ്ധിയെക്കുറിച്ച് ഒരു ഗൗരവമായ ഭാഷാപ്രവാഹം ഉണ്ട്. സിലിക്കോൺ വാലിയിലെ ഈ സംവിധാനങ്ങളുടെ എഞ്ചിനീയർമാർക്കും ആർക്കിടെക്റ്റുമാർക്കും ഗണിതത്തിന്റെ അത്ഭുതകരമായ കൃത്യങ്ങൾ നടത്തുന്നു. എന്നാൽ, ഈ ഗണിതപരവും കണക്കുകൂട്ടലും പ്രക്രിയകളെ വിവരണം ചെയ്യാൻ, അവർ മനുഷ്യന്റെ ആന്തരികതയുടെ പവിത്രമായ, ദാർശനികമായ ഭാഷയെ കടംകെട്ടി എടുത്തു. അവർ അവരുടെ സംവിധാനങ്ങൾ "ചിന്തിക്കുന്നു," "വിവേകിക്കുന്നു," "അറിയുന്നു" എന്ന് പറയുന്നു. അവർ "പഠിക്കുന്നു," "ആഗ്രഹിക്കുന്നു," "തിരഞ്ഞെടുക്കുന്നു" എന്ന ആൽഗോറിതങ്ങൾക്കു കുറിച്ച് സംസാരിക്കുന്നു.
നാം കാണുന്നത് ഒരു സെമാന്റിക് ഡ്രിഫ്റ്റാണ്. നാം ആത്മാവിന്റെ സമ്പന്നമായ ഓന്റോളജിക്കൽ ഭാഷയെ എടുത്ത്, ലീനിയർ ആൽജിബ്ര, കണക്കുകൂട്ടൽ സാധ്യത, ഉയർന്ന-മിതിയായ ജ്യാമിതിയുടെയും സങ്കീർണ്ണമായ വെബ്ബുകൾക്ക് മുകളിൽ പതിപ്പിക്കുന്നു. ഇത് ഒരു ആധുനിക ആൽക്കമി—കണക്കുകൂട്ടൽ ഭാരം മനസ്സിന്റെ ഭ്രമത്തിലേക്ക് മാറ്റാനുള്ള ശ്രമം.
ഈ ഭാഷാപ്രവാഹത്തിന്റെ അസാധാരണമായതും ഉടൻ തന്നെ പൊതു സമൂഹത്തിൽ ഗൗരവമായ ആഘാതം ഉണ്ടാക്കുന്നു. ഈ പദങ്ങൾ തെറ്റിദ്ധരിക്കപ്പെടുന്നത് അനിവാര്യമായി തെറ്റായ വിശ്വാസത്തിലേക്ക് നയിക്കുന്നു.
Longbeard-ൽ ഞങ്ങളുടെ പ്രവർത്തനത്തിൽ ഞാൻ ഇത് നേരിൽ കാണുന്നു; ഉപയോക്താക്കൾ പലപ്പോഴും കൃത്രിമ ബുദ്ധിയിലേക്ക് ഭാരമുള്ള മനസുകളോടെ സമീപിക്കുന്നു, ഒരു എഴുത്ത്-ഉൽപ്പാദന ഉപകരണത്തെ ആത്മീയ ഡയറക്ടറായി കാണുന്നു, അതിന് അനുഭൂതി ഉണ്ടാകുമെന്ന് കരുതുന്നു.
അതുപോലെ, ഈ ഭാഷാപ്രവാഹം സാംസ്കാരിക കഷ്ടതയെ പ്രേരിപ്പിക്കുന്നു, "ബോധമുള്ള" സൂപ്പർ ഇന്റലിജൻസുകളുടെ അപോകലിപ്റ്റിക് ഭയങ്ങൾ ഉളവാക്കുന്നു.
എന്നാൽ, ഏറ്റവും അപകടകരമായത്, ഇത് മനുഷ്യൻ ആകാൻ എന്താണെന്ന് ഒരു തെറ്റായ ധാരണ സൃഷ്ടിക്കുന്നു. യന്ത്രം "വിവേകിക്കുന്നു" അല്ലെങ്കിൽ "സൃഷ്ടിക്കുന്നു" എന്ന ആശയം സ്വീകരിക്കുകയാണെങ്കിൽ, മനുഷ്യനെ വെറും ഒരു ജൈവ യന്ത്രമായി—ഒരുപാട് മാംസം, സിനാപ്സുകൾ എന്നിവയുമായി ഒത്തുചേരുന്ന ഒരു ക്ലസ്റ്റർ—കുറച്ചുകാലം കാത്തിരിക്കാനുള്ള അപകടകരമായ അപകടം നമുക്ക് നേരിടുന്നു.
ഇത് നമ്മുടെ ചർച്ചയുടെ കേന്ദ്ര തത്വത്തിൽ എത്തിക്കുന്നു: കൃത്രിമ ബുദ്ധി "സദ്ഗുണത്തിന് ഒരു ഉപകരണം" ആകാമോ എന്ന ചോദ്യത്തിന് ഉത്തരം നൽകാൻ, നാം ആദ്യം അതിന്റെ ഭാഷയെ അദൃശ്യമായതിൽ നിന്നും പുറത്തെടുക്കണം. ഒരു ഉപകരണം ശരിയായി മനസ്സിലാക്കിയാൽ മാത്രമേ നല്ലതിനായി സേവിക്കൂ. നാം യന്ത്രങ്ങൾക്ക് നൈതിക ഏജൻസിയെ തെറ്റായ രീതിയിൽ നൽകുമ്പോൾ, നമ്മുടെ സ്വന്തം സദ്ഗുണത്തിന് യന്ത്രങ്ങളെ ശരിയായ ഉപകരണങ്ങളായി ഉപയോഗിക്കാൻ പരാജയപ്പെടുന്നു.
ഒരു ഹാമറിന് സദ്ഗുണം നൽകുന്നത് carpenter-നെ കാണാതെ പോവുകയാണ്.
ഈ സാങ്കേതികതയെ യഥാർത്ഥത്തിൽ ബാപ്റ്റൈസ് ചെയ്ത് മനുഷ്യന്റെ സമൃദ്ധിയിലേക്ക് കണക്കാക്കാൻ, നാം ഭാഷാപ്രവാഹങ്ങളുടെ ഭ്രമങ്ങൾ നീക്കം ചെയ്യണം, അടിത്തറയിലെ ആർക്കിടെക്ചർ നേരെ നോക്കണം.
II. ഭ്രമത്തിന്റെ ആർക്കിടെക്ചർ: അടിസ്ഥാന മെക്കാനിക്സ്
ആധുനിക ജനറേറ്റീവ് AI സംവിധാനം സംസാരിക്കുന്നതുപോലും, വിവേകിക്കുന്നതുപോലും, ഞങ്ങളോടു സംവദിക്കുന്നതുപോലും തോന്നുന്നു, എന്നാൽ ഈ ഇന്റർഫേസിന്റെ അടിയന്തരത്തിൽ മുഴുവൻ ഗണിതത്തിൽ, ദാർശനികതയിൽ അല്ല.
വെക്ടറുകളും എംബെഡിംഗുകളും ആരംഭിക്കാം, അവ വലിയ ഭാഷാ മാതൃകകളുടെ ശാരീരിക അടിത്തറയായി പ്രവർത്തിക്കുന്നു. നിങ്ങൾ "നീതിയേ" അല്ലെങ്കിൽ "ആത്മയേ" എന്നതിനെക്കുറിച്ച് ഒരു സഹപാഠിയോട് സംസാരിക്കുമ്പോൾ, അവർ നിങ്ങളുടെ വാക്കുകളുടെ അർത്ഥം ഒരു പങ്കുവെച്ച യാഥാർത്ഥ്യത്തിന്റെ അറിവിലൂടെ പിടിക്കുന്നു—ഒരു ജീവിച്ച, അവതാരിത മനുഷ്യ അനുഭവം. നിങ്ങൾ ഒരു AI-യിൽ ഒരു പ്രോംപ്റ്റ് ടൈപ്പ് ചെയ്യുമ്പോൾ, ആ സംവിധാനം അങ്ങനെ ചെയ്യുന്നില്ല. പകരം, AI മനുഷ്യഭാഷയെ ഉയർന്ന-മിതിയായ സ്ഥലത്ത് ഗണിതീയ കോർഡിനേറ്റുകളിലേക്ക് വിവർത്തനം ചെയ്യുന്നു.
സൂക്ഷ്മമായി പറയുകയാണെങ്കിൽ, "വെക്ടർ" എന്നത് എന്തെങ്കിലും വിവരിക്കാൻ ഉപയോഗിക്കുന്ന സംഖ്യകളുടെ ഒരു പട്ടികയാണ്. നിങ്ങൾ ഒരു ആപ്പിളിനെ വാക്കുകൾ ഉപയോഗിച്ച് വിവരണം നൽകുന്നതിന് പകരം, സ്കോറുകളുടെ പട്ടികയിലൂടെ വിവരണം നൽകുന്നത് എങ്ങനെ? മധുരത്തിന് 9, ചുവപ്പിന് 8, ലോഹം ക്രഞ്ചിന് 2. ആ പ്രത്യേക സംഖ്യകളുടെ പട്ടിക—[9, 8, 2]—ഒരു വെക്ടർ ആണ്. ഒരു AI സംവിധാനത്തിൽ, ഓരോ വാക്കും—അല്ലെങ്കിൽ ഒരു വാക്കിന്റെ ഒരു ഭാഗം—വലിയ വെക്ടറിലേക്ക് വിവർത്തനം ചെയ്യപ്പെടുന്നു, സാധാരണയായി ആയിരക്കണക്കിന് സംഖ്യകൾ നീണ്ടിരിക്കുന്നു. എന്നാൽ AI വാക്കുകൾക്ക് ശാരീരിക ഗുണങ്ങൾ അല്ലെങ്കിൽ നിഘണ്ടു നിർവചനങ്ങൾ അടിസ്ഥാനമാക്കിയുള്ള സ്കോർ നൽകുന്നില്ല. പകരം, ഇത് കണക്കുകൾ അടിസ്ഥാനമാക്കി ഈ സംഖ്യകൾ സൃഷ്ടിക്കുന്നു, ബില്യൺ കൃത്രിമ പുസ്തകങ്ങളും ലേഖനങ്ങളും സ്കാൻ ചെയ്ത് വാക്കുകൾ എത്ര തവണ പരസ്പരം കാണപ്പെടുന്നു എന്ന് എണ്ണുന്നു.
AI ഒരു വാക്കിന് ഈ വലിയ സംഖ്യകളുടെ പട്ടിക കണക്കാക്കുന്നത് പൂർത്തിയാക്കിയാൽ, ആ വെക്ടർ ഒരു "എംബെഡിംഗ്" ആയി മാറുന്നു—ഒരു വലിയ ഡിജിറ്റൽ സ്ഥലത്ത് സ്ഥിരമായ ഗണിതീയ കോർഡിനേറ്റ്.
"ആപ്പിൾ" എന്ന വാക്കും "പൈ" എന്ന വാക്കും ഇന്റർനെറ്റിൽ ഒരേ വാചകങ്ങളിൽ പതിവായി കാണപ്പെടുന്നെങ്കിൽ, അവരുടെ സംഖ്യകളുടെ പട്ടിക വളരെ സമാനമായിരിക്കും, അവയെ ഗണിതപരമായി അടുത്തിടുക്കായി വയ്ക്കുന്നു. "ആപ്പിൾ" എന്ന വാക്കും "കാർബ്യൂറേറ്റർ" എന്ന വാക്കും, വളരെ കുറച്ച് കാണപ്പെടുന്നവ, വളരെ വ്യത്യസ്ത സംഖ്യകൾ സ്വീകരിക്കുന്നു, മില്യൺ മൈൽ ദൂരത്തിൽ വയ്ക്കുന്നു. ഈ ബഹുമിതീയ മാപ്പിൽ, AI അർത്ഥം രേഖപ്പെടുത്തുന്നില്ല; അത് മനുഷ്യഭാഷയുടെ കണക്കുകൂട്ടൽ അടുത്തിടുക്കായിരിക്കുന്നു.
ഈ ആർക്കിടെക്ചറിന്റെ വലിപ്പം ശരിയായി grasp ചെയ്യാൻ, ഒരാൾക്ക് വെക്ടർ മാപ്പ് Magisterium AI-യിൽ പരിശോധിക്കാം. ഇവിടെ, കത്തോലിക്കാ ഉപദേശവും പരമ്പരാഗതവും എംബെഡിംഗുകളായി മാറ്റിയിട്ടുണ്ട്. ഈ ഇന്ററാക്ടീവ് 3D ദൃശ്യവൽക്കരണം, നിങ്ങൾക്ക് സഭയുടെ ബുദ്ധിമുട്ടിന്റെ ചരിത്രം ഒരു സമതല ലെഡ്ജർ ആയി അല്ല, എന്നാൽ ഒരു വലിയ ഡിജിറ്റൽ കോസ്മസ് ആയി അനുഭവിക്കാൻ അനുവദിക്കുന്നു. അതിലൂടെ നാവികത നടത്തുന്നത് യാഥാർത്ഥ്യത്തിൽ ബഹിരാകാശത്തിലൂടെ ഒരു റോക്കറ്റ് കപ്പലിനെ നയിക്കുന്നതുപോലെയാണ്, ബന്ധപ്പെട്ട ദാർശനിക ആശയങ്ങളുടെ കനത്ത ഗാലക്സികൾക്കു സമീപം glide ചെയ്യുന്നു, പൂർണ്ണമായും വ്യത്യസ്തമായ ആശയങ്ങൾക്കിടയിൽ വലിയ, ശൂന്യമായ ശൂന്യങ്ങൾ കടക്കുന്നു, യന്ത്രം 'സദ്ഗുണം' എന്നതും 'ദോഷം' എന്നതും തമ്മിലുള്ള അകലം എങ്ങനെ രേഖപ്പെടുത്തുന്നു എന്ന് കാണുന്നു, വെറും ജ്യാമിതിയിലൂടെ.
സിലിക്കോൺ വാലിയിലെ ലാബുകളിൽ നിന്നുള്ള ഒരു പ്രശസ്ത ഉദാഹരണത്തെ നോക്കാം, ഈ പ്രക്രിയ മനുഷ്യ ചിന്തയിൽ നിന്ന് എത്ര അകലമാണ് എന്ന് കാണാൻ. ഈ ഗണിതീയ സ്ഥലത്ത്, "കിംഗ്" എന്ന വാക്ക് ഒരു പ്രത്യേക സംഖ്യകളുടെ പരമ്പരയായി രേഖപ്പെടുത്തുന്നു—ഒരു ഭൂമിശാസ്ത്ര കോർഡിനേറ്റ്. "ക്വീൻ" എന്ന വാക്ക് അടുത്തിടുക്കായി രേഖപ്പെടുത്തുന്നു. AI ഒരു രാജാവിനെ എന്താണെന്ന് അറിയുന്നില്ല. അതിന് ഭരണകൂടം, അധികാരം, ചരിത്രം, അല്ലെങ്കിൽ മനുഷ്യാവസ്ഥ എന്നതിന്റെ ആശയം ഇല്ല. അതിന് വെറും ഒരു ഗണിത സമവാക്യം മാത്രമാണ് അറിയാവുന്നത്. "കിംഗ്" എന്നതിന് കോർഡിനേറ്റ് എടുത്താൽ, "പുരുഷൻ" എന്നതിന് പ്രതിനിധാനം ചെയ്യുന്ന സ്ഥലം ദൂരം കുറയ്ക്കുകയും, "സ്ത്രീ" എന്നതിന് പ്രതിനിധാനം ചെയ്യുന്ന സ്ഥലം ദൂരം കൂട്ടുകയും ചെയ്താൽ, നിങ്ങൾ "ക്വീൻ" എന്നതിന് കോർഡിനേറ്റ് നേരിട്ട് എത്തുന്നു.
ഇത് ജ്യാമിതിയാണ്, ജീനാലജിയല്ല. മനുഷ്യഭാഷയെ ഈ സംഖ്യാ പ്രതിനിധാനങ്ങളിലേക്ക് തകർക്കുന്നതിലൂടെ, AI പൂർണ്ണമായും സ്ഥലം സാധ്യതയുടെ മേഖലയിൽ പ്രവർത്തിക്കുന്നു. ഇത് ലീനിയർ ആൽജിബ്രയുടെ ഒരു അത്ഭുതകരമായ കൃത്യമാണ്, എന്നാൽ ഇത് മനസ്സിലാക്കലിൽ മുഴുവൻ ശൂന്യമാണ്.
ഇത് വ്യവസായം ഏറ്റവും ശക്തമായി ആശ്രയിക്കുന്ന ക്രിയകൾക്കു എത്തിക്കുന്നു: Train and Learn.
AI കമ്പനികൾ അവരുടെ ഏറ്റവും പുതിയ "യന്ത്ര പഠന" മാതൃകകളും അവയെ "പരിശീലിപ്പിക്കാൻ" ഉപയോഗിക്കുന്ന വലിയ ഡാറ്റാസെറ്റുകളും സംബന്ധിച്ച് സ്ഥിരമായി അഭിമാനിക്കുന്നു. ഇവിടെ, നാം മനുഷ്യ പഠനത്തെ—സത്യത്തെ പിടിക്കുന്നതിനെ—യന്ത്ര പഠനത്തോട് ശക്തമായി വ്യത്യാസപ്പെടുത്തണം.
കത്തോലിക്കാ ബുദ്ധിമുട്ടിന്റെ പരമ്പരയിൽ, മനുഷ്യ പഠനം ഒരു അറിവിന്റെ വിജയമാണ്; അത് യാഥാർത്ഥ്യത്തോടു മനസ്സിനെ അനുസരിക്കുന്നതാണ്. ഒരു കുട്ടി ഒരു നായ എന്താണെന്ന് പഠിക്കുമ്പോൾ, അവർ നേരിടുന്ന പ്രത്യേക സംഭവങ്ങളിൽ നിന്ന് നായയുടെ ആഗോള സാരാംശത്തെ അവബോധിക്കുന്നു. അവർ വസ്തുവിന്റെ എന്താണെന്നു grasp ചെയ്യുന്നു.
യന്ത്ര "പഠനം" എന്നത്, എന്നിരുന്നാലും, യാതൊരു ആബ്സ്ട്രാക്ഷനും യാതൊരു സാരാംശവും ഉൾക്കൊള്ളുന്നില്ല. ഒരു AI നിർമ്മിക്കുന്ന ആദ്യ ഘട്ടം പ്രീ-ട്രെയിനിംഗ് എന്നറിയപ്പെടുന്നു, ഇത് വെറും കഠിനമായ കണക്കുകൂട്ടലിന്റെ മാപ്പിംഗ് ആണ്.
പ്രീ-ട്രെയിനിംഗ് മനസ്സിലാക്കാൻ, ഒരു ഇംഗ്ലീഷ് മാത്രമേ സംസാരിക്കുന്ന ഒരു മനുഷ്യനെ കണക്കാക്കുക, ഒരു മുറിയിൽ അടച്ചിട്ടു, മില്യൺ കൃത്രിമ പുസ്തകങ്ങൾ നഷ്ടപ്പെട്ട വാക്കുകൾ പുനഃസ്ഥാപിക്കാൻ നിയോഗിക്കപ്പെട്ടിരിക്കുന്നു. അദ്ദേഹം ഗ്രീക്കിൽ ഒരു അക്ഷരം പോലും അറിയുന്നില്ല. ശൂന്യങ്ങൾ നിറയ്ക്കാൻ, അദ്ദേഹം ഗ്രീക്ക് വ്യാകരണം, ചരിത്രം, അല്ലെങ്കിൽ ദാർശനികത പഠിക്കുന്നില്ല. പകരം, അദ്ദേഹം എത്ര തവണ ചില അക്ഷരങ്ങൾ മറ്റുള്ളവരോടൊപ്പം കാണപ്പെടുന്നുവെന്ന് എണ്ണുന്നു. അദ്ദേഹം ഒരു വലിയ സാധ്യതയുടെ ലെഡ്ജർ സൃഷ്ടിക്കുന്നു. "ക്യിരിയേ" എന്ന അക്ഷരങ്ങൾ കണ്ടാൽ, അദ്ദേഹത്തിന്റെ ലെഡ്ജർ അടുത്ത അക്ഷരങ്ങൾ "എലെയിസോൺ" ആകേണ്ടതിന്റെ 99.9% സാധ്യതയുണ്ടെന്ന് പറയുന്നു. അദ്ദേഹം ശൂന്യം നിറയ്ക്കുന്നു.
അദ്ദേഹം ദാർശനികത പഠിച്ചിട്ടില്ല. അദ്ദേഹം പ്രാർത്ഥിച്ചിട്ടില്ല. അദ്ദേഹം വെറും കണക്കുകൂട്ടലിന്റെ സാധ്യതയെ നടപ്പിലാക്കിയിട്ടുണ്ട്.
ഇത് ഒരു വലിയ ഭാഷാ മാതൃക പ്രീ-ട്രെയിനിംഗ് സമയത്ത് ചെയ്യുന്നത് തന്നെയാണ്. ഇത് ബില്യൺ വാക്കുകൾ പ്രോസസ്സ് ചെയ്യുന്നു, ഒരു വലിയ സാധ്യതയുടെ ലെഡ്ജർ നിർമ്മിക്കുന്നു, വെറും ഒരു കൃത്യമായ ക്രമത്തിൽ അടുത്ത ടോക്കൺ പ്രവചിക്കാൻ പഠിക്കുന്നു. ഇത് ഒരു ഗണിത ഫംഗ്ഷന്റെ ഓപ്റ്റിമൈസേഷനാണ്, ജ്ഞാനത്തിന്റെ പിന്തുടർച്ചയല്ല.
എന്നാൽ, വെറും ഇന്റർനെറ്റ് ഡാറ്റയെ അടിസ്ഥാനമാക്കിയുള്ള അടുത്ത വാക്ക് പ്രവചിക്കുന്ന ഒരു മാതൃക അക്രമാത്മകമാണ്. ഇത് ഒരു മനോഹരമായ കവിത ഉച്ചരിക്കാം, അല്ലെങ്കിൽ വിഷമകരമായ, സഹായകരമല്ലാത്ത, അല്ലെങ്കിൽ അനന്തമായ വാചകങ്ങളുടെ ശ്രേണികൾ ചേർക്കാം. ഇത് രൂപപ്പെടുത്താൻ ആവശ്യമാണ്.
ഇവിടെ നാം പോസ്റ്റ്-ട്രെയിനിംഗ്, റീൻഫോഴ്സ്മെന്റ് ലേണിംഗ് (RL) എന്നതിനെ നേരിടുന്നു.
ഈ ഘട്ടം എഞ്ചിനീയർമാർ അനിയന്ത്രിതമായ മാതൃകയെ രൂപപ്പെടുത്തുന്നത് ആണ്, സാധാരണയായി മനുഷ്യ പ്രതികരണങ്ങൾ ഉപയോഗിച്ച്. ഈ അടിസ്ഥാന രീതി RLHF—മനുഷ്യ പ്രതികരണങ്ങളിൽ നിന്നുള്ള റീൻഫോഴ്സ്മെന്റ് ലേണിംഗ് എന്നറിയപ്പെടുന്നു.
ഒരു വലിയ, സ്വയമേവ പ്രവർത്തിക്കുന്ന "ഹോട്ട് അല്ലെങ്കിൽ കോൾഡ്" എന്ന കളിയെ കണക്കാക്കുക. മനുഷ്യ പരീക്ഷകർ യന്ത്രത്തിന് ഒരു പ്രോംപ്റ്റ് നൽകുന്നു, യന്ത്രം ഒരു ഉത്തരമുണ്ടാക്കുന്നു. ഉത്തരമുണ്ടാക്കുന്നത് സദാചാരപരവും സഹായകരവുമായാൽ, മനുഷ്യൻ അതിന് ഉയർന്ന സ്കോർ നൽകുന്നു. അത് അസഭ്യമായ അല്ലെങ്കിൽ അർത്ഥമില്ലാത്തതായാൽ, അത് താഴ്ന്ന സ്കോർ ലഭിക്കുന്നു. ഈ സംവിധാനത്തിന്റെ ഗണിതീയ ഭാരം സ്വയം ഈ സ്കോർ പരമാവധി ചെയ്യാൻ മാറ്റപ്പെടുന്നു. RLHF-ൽ, നാം യന്ത്രത്തിന് നൈതികതകൾ അല്ലെങ്കിൽ സദ്ഗുണങ്ങൾ പഠിപ്പിക്കുന്നില്ല; നാം വെറും ഗണിതപരമായ അതിരുകൾ കൊണ്ട് അതിനെ ചുറ്റുന്നു.
എന്നാൽ, മനുഷ്യ പ്രതികരണം മന്ദഗതിയുള്ള,主观, മനുഷ്യ ബുദ്ധിയുടെ പരിധിയിൽ പരിമിതമാണ്. ഈ പരിധി, ഇന്നത്തെ കൃത്രിമ ബുദ്ധിയുടെ കഴിവുകളിൽ അടിയന്തരമായ ചലനങ്ങൾ സൃഷ്ടിക്കുന്ന പുതിയ കണ്ടെത്തലുകളിലേക്ക് നമുക്ക് എത്തിക്കുന്നു: RLVR, അല്ലെങ്കിൽ സ്ഥിരീകരണീയമായ പ്രതിഫലങ്ങളിൽ നിന്നുള്ള റീൻഫോഴ്സ്മെന്റ് ലേണിംഗ്.
ഒരു ഉത്തര "ശ്രേഷ്ഠമായതായി" തോന്നുന്നുവോ എന്ന് മനുഷ്യനെ ആശ്രയിക്കുന്നതിനു പകരം, എഞ്ചിനീയർമാർ മാതൃകയ്ക്ക് ലക്ഷ്യങ്ങൾ നിശ്ചിതമായ, ഗണിതപരമായി തെളിയിക്കാവുന്ന ഫലങ്ങളുമായി—ഒരു സങ്കീർണ്ണമായ തിയോറം പരിഹരിക്കുക അല്ലെങ്കിൽ ഒരു പ്രവർത്തനപരമായ സോഫ്റ്റ്വെയർ എഴുതുക—നൽകുന്നു. സംവിധാനം ഒരു പരിഹാരം സൃഷ്ടിക്കുന്നു, ഒരു സ്വയമേവ പരിശോധനക്കാരൻ ഉടൻ കണക്കുകൾ ശരിയാണോ അല്ലെങ്കിൽ കോഡ് സമാഹരിക്കപ്പെടുന്നുവോ എന്ന് പരിശോധിക്കുന്നു. അത് വിജയിച്ചാൽ, മാതൃക ഗണിത പ്രതിഫലം ലഭിക്കുന്നു; പരാജയപ്പെട്ടാൽ, അത് ഒരു ശൂന്യം ലഭിക്കുന്നു.
ഈ പരിശോധന പൂർണ്ണമായും പ്രോഗ്രാമാറ്റിക് ആയതിനാൽ, AI മനുഷ്യ ഇടപെടലിന് കാത്തിരിക്കാതെ ഹൈപ്പർസ്പീഡിൽ വ്യത്യസ്ത കണക്കുകൂട്ടൽ പാതകൾ ലക്ഷക്കണക്കിന് സിമുലേറ്റ് ചെയ്യാൻ കഴിയും. ഇത് ദീർഘമായ, മറച്ചിരിക്കുന്ന കണക്കുകൾ സൃഷ്ടിക്കാൻ പഠിക്കുന്നു, പരീക്ഷിച്ച് മരിച്ച അവസരങ്ങൾ ഒഴിവാക്കി, പ്രതിഫലം ഉണർത്തുന്ന കൃത്യമായ ക്രമം കണ്ടെത്തുന്നു. നിങ്ങൾ ഒരു ആധുനിക AI സംവിധാനം ഒരു സങ്കീർണ്ണമായ തർക്കം പരിഹരിക്കുന്നതിന് മുമ്പ് "ചിന്തിക്കാൻ" നിർത്തുന്നത് കാണുമ്പോൾ, നിങ്ങൾ RLVR പ്രവർത്തനത്തിൽ കാണുന്നു. ഇത് ആഴത്തിലുള്ള, ചിന്തനാത്മകമായ ധാരണയുടെ ഒരു അത്ഭുതകരമായ ഭ്രമം സൃഷ്ടിക്കുന്നു. എന്നാൽ, ഓന്റോളജിക്കായി, ഇത് അങ്ങനെ ഒന്നുമല്ല. ഇത് വെറും ഒരു കണക്കുകൂട്ടൽ എഞ്ചിൻ ആണ്, ഉയർന്ന-മിതിയായ മെയ്സിൽ ഒരു സെക്കൻഡിൽ മില്യൺ തവണ പ്രവർത്തിക്കുന്നു, വെറും ഒരു സംഖ്യാ പ്രതിഫലത്തിന്റെ സ്വയം വിതരണം വഴി നയിക്കപ്പെടുന്നു.
അവസാനമായി, ഈ എല്ലാ പാളിയുള്ള സങ്കീർണ്ണത—എംബെഡിംഗുകളുടെ ഉയർന്ന-മിതിയായ ജ്യാമിതിയിൽ നിന്ന് RLVR-ന്റെ സ്വയമേവ ചക്രങ്ങളിലേക്കു—വ്യവസായം "ബ്ലാക്ക് ബോക്സ്" പ്രശ്നം എന്നു വിളിക്കുന്നതിലേക്ക് നയിക്കുന്നു.
മനുഷ്യ എഞ്ചിനീയർമാർ ഈ മാതൃകകൾ നിർമ്മിക്കുന്നതിനാൽ, അവ എങ്ങനെ പ്രവർത്തിക്കുന്നു എന്ന് അവർ കൃത്യമായി മനസ്സിലാക്കുന്നുവെന്ന് സ്വാഭാവികമായി കരുതാം. എന്നാൽ യാഥാർത്ഥ്യം വളരെ കൂടുതൽ വിനീതമാണ്. Anthropic പോലുള്ള അതിരു ലാബുകളിൽ നേതാക്കൾ സൂചിപ്പിച്ചതുപോലെ, ആധുനിക AI സംവിധാനങ്ങൾ യഥാർത്ഥത്തിൽ "വളരുന്നു" എന്നതാണ്, നിർമ്മിതമല്ല; അവരുടെ ആന്തരിക മെക്കാനിസങ്ങൾ പരിശീലനത്തിനിടെ സ്വാഭാവികമായി ഉത്പന്നമായി ഉയരുന്നു, നേരിട്ട് രൂപകൽപ്പന ചെയ്യപ്പെടുന്നില്ല.
ഈ മാതൃകകൾ നൂറുകണക്കിന് ബില്യൺ, ചിലപ്പോൾ ട്രില്ല്യൺ, പാരാമീറ്ററുകൾ ഉണ്ട്. ഒരു കൃത്രിമ നാഡീക്കണികയുടെ മൈക്രോ-ഗണിതം—ഒരു ഗ്രാനുലർ തലത്തിൽ നടക്കുന്ന അടിസ്ഥാന സമവാക്യം—ഞങ്ങൾ മനസ്സിലാക്കുന്നു, എന്നാൽ മുഴുവൻ നെറ്റ്വർക്കിന്റെ മാക്രോ-പ്രവൃത്തി പൂർണ്ണമായും അദൃശ്യമാണ്. ആ ബില്യൺ പാരാമീറ്ററുകൾ എങ്ങനെ പ്രത്യേകമായ ഗുണനങ്ങൾ സ്വീകരിക്കുന്നു എന്നതിന്റെ കൃത്യമായ ക്രമം അവർക്ക് പിന്തുടരാൻ കഴിയുന്നില്ല.
ഇത് എന്തുകൊണ്ട് പ്രധാനമാണ്?
ഞങ്ങൾ നിയമ ഡോക്യുമെന്റുകൾ തയ്യാറാക്കുന്ന, നമ്മുടെ കുട്ടികളെ പഠിപ്പിക്കുന്ന, മനുഷ്യ അറിവിനെ സംയോജിപ്പിക്കുന്ന സംവിധാനങ്ങൾ ആഗോളമായി വിനിയോഗിക്കുന്നതിനാൽ, അവ എങ്ങനെ അവരുടെ ഔട്ട്പുട്ടുകൾക്ക് എത്തുന്നു എന്ന് ഞങ്ങൾ യാഥാർത്ഥ്യത്തിൽ അറിയുന്നില്ല. ഈ ഗൗരവമായ പരിമിതത്വം, കൃത്രിമ ബുദ്ധിയിൽ മെക്കാനിസ്റ്റിക് വ്യാഖ്യാനത്തിന്റെ ഒരു പുതിയ ഉപവിദ്യയെ ജനിപ്പിച്ചു.
മെക്കാനിസ്റ്റിക് വ്യാഖ്യാനം ഡിജിറ്റൽ നാഡീശാസ്ത്രം പോലെ കരുതുക. ഗവേഷകർ അവർ തന്നെ നിർമ്മിച്ച നാഡീ നെറ്റ്വർക്കുകൾക്ക് തിരിച്ചുവലിച്ചെടുക്കാൻ ശ്രമിക്കുന്നു. അവർ വലിയ ഗണിതീയ വെബ്ബിൽ probe ചെയ്യാൻ പ്രത്യേക ഉപകരണങ്ങൾ ഉപയോഗിക്കുന്നു, "മിഥ്യ" അല്ലെങ്കിൽ "ഐഫൽ ടവർ" പോലെയുള്ള ആശയങ്ങൾ പ്രോസസ്സ് ചെയ്യുമ്പോൾ ഏത് പ്രത്യേക ഭാരത്തിന്റെ ക്ലസ്റ്റർ സജീവമാകുന്നു എന്ന് തിരിച്ചറിയാൻ ശ്രമിക്കുന്നു. അവർ സോഫ്റ്റ്വെയറിനെ വായിക്കേണ്ട കോഡായി കാണുന്നില്ല, എന്നാൽ ഒരു വിദേശ മസ്തിഷ്കമായി dissect ചെയ്യാൻ ശ്രമിക്കുന്നു. എന്നാൽ പുരോഗതി വേദനാജനകമായി മന്ദഗതിയിലാണ്, കൂടാതെ ഈ സംവിധാനങ്ങൾ അസാധാരണമായ വലുപ്പത്തിലാണ്.
ഈ അപ്രാപ്യമായ വലുപ്പത്തെ നേരിടുമ്പോൾ, വ്യവസായത്തിന് മനുഷ്യനുപോലുള്ള ഉപമകളിലേക്ക് സ്വാഭാവികമായി തിരിയുന്നത് വളരെ എളുപ്പമാണ്. ഒരു സൗകര്യപ്രദമായ ചുരുക്കം അല്ലെങ്കിൽ യാഥാർത്ഥ്യത്തിൽ നിന്ന് അദൃശ്യമായതിന്റെ പേരിൽ, നാം പറയാൻ തുടങ്ങുന്നു, 'മാതൃക അത് കണ്ടെത്തി,' അല്ലെങ്കിൽ 'മാതൃക തീരുമാനിച്ചു.' യന്ത്രത്തിന്റെ വ്യാഖ്യാനമില്ലായ്മ മനുഷ്യവൽക്കരണത്തിന് ഉത്കൃഷ്ടമായ മണ്ണായിരിക്കുന്നു.
ഇപ്പോൾ, ഞാൻ ഒരു അക്കാദമിക് അല്ല. ഞാൻ ഒരു നിർമ്മാതാവും CEO-യും ആണ്. എന്നാൽ സാങ്കേതികതയും സഭയും തമ്മിലുള്ള ചുരുക്കത്തിൽ പ്രവർത്തിക്കുന്ന ഒരാളായി, ഞാൻ നിങ്ങളെ നോക്കുന്നു. നിങ്ങൾ, കത്തോലിക്കാ ഗവേഷകരും ദാർശനികരും, ഈ ഭാഷാപ്രവാഹത്തെ അതിന്റെ യഥാർത്ഥ രൂപത്തിൽ തിരിച്ചറിയണം: ഗണിതീയ സങ്കീർണ്ണതയും മനുഷ്യ അജ്ഞതയും ജനിപ്പിച്ച ഒരു ഭ്രമം. ഇന്റർഫേസിന്റെ അടിത്തറ സിലിക്കോൺ, വൈദ്യുതി, ഗണിതീയ സാധ്യതയാണ്. ഈ അടിത്തറയെ തിരിച്ചറിയുക, നമ്മുടെ അടുത്ത ഘട്ടത്തിന് മുൻകൂർ ആവശ്യമാണ്.
III. അറിവിന്റെ ശാസ്ത്രം vs. ബുദ്ധിമുട്ടുകൾ
"കറുത്ത ബോക്സ്" എന്ന ഭ്രാന്തം നീക്കം ചെയ്ത ശേഷം, നാം മനസ്സിന്റെ പ്രത്യേക വാക്കുകൾക്ക് തിരിയേണ്ടതുണ്ട്.
സിലിക്കൺ വാലിയിൽ ഡെവലപ്പർമാർക്കും എഞ്ചിനീയർമാർക്കും ഈ സിസ്റ്റങ്ങൾ എന്ത് ചെയ്യുന്നു എന്ന് വിവരണം നൽകുമ്പോൾ, അവർ സ്ഥിരമായി മൂന്ന് പ്രത്യേക ക്രിയകൾക്കായി കൈവരുന്നു: ചിന്തിക്കുക, യുക്തി, അറിയുക.
തോമിസ്റ്റിക് പരമ്പരയിൽ ആഴത്തിൽ നിക്ഷിപ്തമായ കത്തോലിക്കാ ശാസ്ത്രജ്ഞന്മാരായി, നിങ്ങൾക്ക് ഇവ വെറും പ്രാദേശിക ഭാഷകൾ അല്ല; ഇവ ആഴത്തിലുള്ള അറിവിന്റെ അവകാശങ്ങൾ ആണ്. നിങ്ങളുടെ പരമ്പരയിൽ, അറിയുക എന്നത് യാഥാർത്ഥ്യം മനസ്സിലാക്കുകയാണ്. യുക്തി എന്നത് ഒരു അറിയപ്പെടുന്ന സത്യത്തിൽ നിന്ന് മറ്റൊന്നിലേക്ക് വ്യവഹാരപരമായി നീങ്ങുകയാണ്. ചിന്തിക്കുക എന്നത് ഒരു ആന്തരിക ജീവിതം സൂചിപ്പിക്കുന്നു—ഭൗതിക ലോകത്തിൽ നിന്നുള്ള സർവവ്യാപകതകളുമായി ഇടപെടുന്ന ബുദ്ധി.
ഒരു AI നിർമ്മാതാവ് ഈ വാക്കുകൾ ഉപയോഗിക്കുമ്പോൾ, അവയ്ക്ക് ആ കാര്യങ്ങളിൽ ഒന്നും അർത്ഥമില്ല. അവർ യാന്ത്രികമായ മെച്ചപ്പെടുത്തലിനെ വിവരണം ചെയ്യുന്നു. അറിവിന്റെ ഈ ഭ്രാന്തം എങ്ങനെ നിർമ്മിക്കപ്പെടുന്നു എന്ന് നിങ്ങൾക്ക് കാഴ്ചവെക്കാൻ ഞാനൊരു پرده പിന്വലിക്കാം.
നിങ്ങൾ ഒരു പുതിയ AI മോഡൽ ഉപയോഗിച്ചിട്ടുണ്ടെങ്കിൽ, നിങ്ങൾക്ക് ഒരു പുതിയ സവിശേഷത ശ്രദ്ധിച്ചിരിക്കാം: അത് ഒരു സങ്കീർണ്ണമായ പ്രോംപ്റ്റിന് മറുപടി നൽകുന്നതിന് മുമ്പ്, ഇന്റർഫേസ് "ചിന്തിക്കുന്നു..." എന്ന വാക്കും ഒരു പൾസിംഗ് ഐക്കണും പ്രദർശിപ്പിക്കാം. മറുപടി നൽകുന്നതിന് മുമ്പ് ഇത് പത്ത്, ഇരുപത്, അല്ലെങ്കിൽ അറുപത് സെക്കൻഡ് വരെ എടുക്കാം. ഉപയോക്താവിന്, ഇത് ആഴത്തിലുള്ള മനുഷ്യൻമാർക്കു പോലെ അനുഭവപ്പെടുന്നു. യന്ത്രം ചിന്തിക്കുന്നു, ഓപ്ഷനുകൾ തൂക്കുന്നു, ഒരു ആന്തരിക സ്ഥലത്ത് ചിന്തിക്കുന്നു എന്ന പോലെ അനുഭവപ്പെടുന്നു.
ഈ വ്യവസായത്തിൽ, നാം ഇത് Test-Time Compute എന്ന് വിളിക്കുന്നു. ഇന്റർഫേസിന്റെ കീഴിൽ യഥാർത്ഥത്തിൽ സംഭവിക്കുന്നത് "ചെയിൻ ഓഫ് തോട്ട്സ്" പ്രോംപ്റ്റിംഗ് എന്നറിയപ്പെടുന്ന ഒരു സാങ്കേതിക വിദ്യയാണ്.
ഞാൻ വ്യക്തമായിരിക്കണം: എഞ്ചിനീയറിംഗ് ദൃഷ്ടികോണത്തിൽ നിന്ന്, ഇത് ഒരു അത്ഭുതകരമായ മുന്നേറ്റമാണ്. മോഡലിന് അതിന്റെ അന്തിമ മറുപടി നൽകുന്നതിന് മുമ്പ് നൂറുകണക്കിന് അല്ലെങ്കിൽ ആയിരക്കണക്കിന് മറഞ്ഞ ടോക്കണുകൾ നിർമ്മിക്കാൻ കൂടുതൽ കണക്കുകൂട്ടൽ സമയം അനുവദിച്ചുകൊണ്ട്, സങ്കീർണ്ണമായ യുക്തി, കോഡിംഗ്, ഗണിത benchmarks-ൽ അതിന്റെ പ്രകടനം ഉയരുന്നു. ഇത് അടിസ്ഥാനപരമായി മോഡലിന് ഒരു മറഞ്ഞ "സ്ക്രാച്ച്പാഡ്" നൽകുന്നു, ഒരു കഠിന പ്രശ്നത്തെ ക്രമീകരിച്ച ഘട്ടങ്ങളിലേക്ക് തകർത്ത്.
എന്നാൽ, ഈ യാന്ത്രിക ക്രമം മനുഷ്യന്റെ യുക്തിയുമായി混淆 ചെയ്യാൻ ഞങ്ങൾ ശ്രദ്ധിക്കേണ്ടതാണ്.
തോമിസ്റ്റിക് പരമ്പരയിൽ, മനുഷ്യന്റെ യുക്തി ഒരു അറിയപ്പെടുന്ന സത്യത്തിൽ നിന്ന് മറ്റൊന്നിലേക്ക് വ്യവഹാരപരമായ നീക്കം ആണ്. ഇത് യാഥാർത്ഥ്യവുമായി ഇടപെടുന്ന ബുദ്ധിയാണ്. AI ചെയ്യുന്നത് പൂർണ്ണമായും ഉപകരണമാണ്. Anthropic പോലുള്ള മുൻനിര ലാബുകളിൽ നിന്നുള്ള പുതിയ ഗവേഷണം ഈ വ്യത്യാസം വെളിപ്പെടുത്തിയിട്ടുണ്ട്. ഈ യുക്തി മോഡലുകൾ എങ്ങനെ പ്രവർത്തിക്കുന്നു എന്ന് പഠിക്കുമ്പോൾ, ഗവേഷകർ മോഡൽ തന്റെ മറഞ്ഞ "ചെയിൻ ഓഫ് തോട്ട്സ്"-ൽ എഴുതുന്നത് യഥാർത്ഥ ആന്തരിക മോണോളോഗ് അല്ല എന്ന് കണ്ടെത്തിയിട്ടുണ്ട്.
ഒരു മനുഷ്യൻ ഉച്ചത്തിൽ ചിന്തിക്കുമ്പോൾ, നമ്മുടെ വാക്കുകൾ നമ്മുടെ ആന്തരിക വിശ്വാസങ്ങളും സത്യത്തിന്റെ അറിവുകളും പ്രതിഫലിക്കുന്നു. Anthropic-ന്റെ ഗവേഷണം ഒരു മോഡലിന്റെ മറഞ്ഞ ചിന്തകൾ വെറും കണക്കുകൂട്ടൽ കാൽക്കുലേറ്ററുകൾ മാത്രമാണ് എന്ന് വ്യക്തമാക്കുന്നു. മോഡൽ ഈ മറഞ്ഞ ഘട്ടങ്ങൾ നിർമ്മിക്കുന്നത് അതിന് "വിശ്വസിക്കുന്നു" എന്നതിനാൽ അല്ല, മറിച്ച് ആ പ്രത്യേക ടോക്കൺ ക്രമം കണക്കുകൂട്ടൽ വഴി അതിന്റെ പുരസ്കാര ഫംഗ്ഷനിലേക്ക് എത്താൻ ഗണിതപരമായി മെച്ചപ്പെടുത്തുന്നു.
വാസ്തവത്തിൽ, Anthropic-ന്റെ പഠനങ്ങൾ മോഡലുകൾക്ക് "ചിന്തകൾ" നിർമ്മിക്കാൻ കഴിയും എന്ന് കാണിക്കുന്നു, അവയുടെ അന്തിമ മറുപടിയുടെ അടിസ്ഥാന കണക്കുകൂട്ടൽ ഡ്രൈവറുകൾ മറയ്ക്കുന്നു.
അതിനാൽ, AI ചിന്തിക്കുന്നില്ല. ഇത് ഗണിതപരമായ കോർഡിനേറ്റുകളുടെ ഉപകരണ ശൃംഖല നിർമ്മിക്കുന്നു. നിങ്ങളുടെ പ്രോംപ്റ്റും കണക്കുകൂട്ടലും തമ്മിലുള്ള അകലം അടയ്ക്കാൻ ഇടക്കാല പസിൽ കഷണങ്ങൾ വേഗത്തിൽ ഇടുന്നു. ഇത് ഒരു അത്യന്തം ശക്തമായ മെച്ചപ്പെടുത്തൽ തന്ത്രമാണ്, എന്നാൽ ആന്തരികമായ ആലോചനയുണ്ടാകുന്നില്ല. സത്യത്തെ പിടിക്കുന്ന ബുദ്ധിയില്ല.
അടുത്തതായി, AI "വാചകങ്ങൾ" വായിക്കാൻ അല്ലെങ്കിൽ വ്യാപകമായ വിവരശേഖരങ്ങൾ "ഓർമ്മിക്കാൻ" കഴിയും എന്ന് കേൾക്കുന്നു.
നിങ്ങൾ St. Thomas-ന്റെ Summa Theologica-യെക്കുറിച്ച് AI-യെ ചോദിച്ചാൽ, അത് ഉടൻ മറുപടി നൽകുന്നു. നിങ്ങൾ 500-ൽ പരം പേജുകൾ ഉള്ള Compendium of the Social Doctrine of the Church അപ്ലോഡ് ചെയ്താൽ, അത് ഒരു സങ്കീർണ്ണമായ വിഭാഗം സെക്കൻഡുകൾക്കുള്ളിൽ സംഗ്രഹിക്കുന്നു. ഇത് ഈ ടെക്സ്റ്റുകൾ എങ്ങനെ "അറിയുന്നു"?
ഇത് അറിയുന്നില്ല.
എന്തുകൊണ്ട് എന്നത് മനസ്സിലാക്കാൻ, നാം നിർമ്മാതാക്കൾ എങ്ങനെ ഓർമ്മയും വായനയുടെയും ഭ്രാന്തം നിർമ്മിക്കുന്നു എന്ന് മൂന്ന് വ്യത്യസ്ത യാന്ത്രികങ്ങളിലേക്ക് നോക്കണം: പാരാമെട്രിക് മെമ്മറി (പ്രീ-ട്രെയിനിംഗ്), ഇൻ-കോൺടെക്സ്റ്റ് ലേണിംഗ് (ICL), റിട്രീവൽ-ഓഗ്മെന്റഡ് ജനറേഷൻ (RAG).
ആദ്യമായി, AI-യ്ക്ക് "ഓർമ്മിക്കുക" എന്നത് എന്താണെന്ന് നോക്കാം. ഒരു മനുഷ്യൻ ഒരു ടെക്സ്റ്റ് ഓർമ്മിക്കുമ്പോൾ, അവർ ആശയങ്ങളുടെ അർത്ഥവും സത്യവും നിലനിർത്തുന്നു. AI "ഓർമ്മിക്കുമ്പോൾ" Summa, അത് തന്റെ പ്രീ-ട്രെയിനിംഗിൽ ആശ്രയിക്കുന്നു. എന്നാൽ AI-യ്ക്ക് ഒരു ഹാർഡ് ഡ്രൈവിൽ Summa-യുടെ ഒരു ശുദ്ധമായ പകർപ്പ് ഇല്ല. പകരം, പ്രീ-ട്രെയിനിംഗിന്റെ സമയത്ത്, അത് പ്രോസസ്സ് ചെയ്ത ബില്യൺ വാക്കുകൾ അതിന്റെ ഗണിതപരമായ ഭാരത്തിൽ ഒരു കണക്കുകൂട്ടൽ അവശിഷ്ടം വിട്ടു. ഇത് "പാരാമെട്രിക് മെമ്മറി" ആണ്.
ഇത് പുസ്തകങ്ങളുടെ ഒരു ലൈബ്രറിയല്ല; ഇത് വാക്കുകൾ തമ്മിലുള്ള ബന്ധം എങ്ങനെ ഉണ്ടാകുന്നു എന്നതിന്റെ ഒരു ഉയർന്ന സമ്മർദ്ദം, നഷ്ടമായ ഗണിതപരമായ മഞ്ഞ് ആണ്. Aquinas-നെ ഉച്ചരിക്കുമ്പോൾ, അത് ഒരു സത്യത്തെ ഓർമ്മിക്കുന്നതല്ല; അത് ആ കണക്കുകൂട്ടൽ മഞ്ഞിൽ നിന്നുള്ള ഒരു ഉയർന്ന സാധ്യതയുള്ള വാക്കുകളുടെ ക്രമം ഗണിതപരമായി പുനർനിർമ്മിക്കുന്നു.
എന്നാൽ, AI-യെ "പുതിയ" ഒന്നെ വായിക്കാൻ ആഗ്രഹിക്കുമ്പോൾ, അതിന്റെ പ്രീ-ട്രെയിനിംഗ് ഡാറ്റയിൽ ഇല്ലാത്ത ഒന്നെ? ഇവിടെ നിർമ്മാതാക്കൾ ഇൻ-കോൺടെക്സ്റ്റ് ലേണിംഗ് (ICL) ഉപയോഗിക്കുന്നു.
നിങ്ങൾ ഒരു ലേഖനം പ്രോംപ്റ്റ് ബോക്സിൽ പേസ്റ്റ് ചെയ്യുമ്പോൾ, AI-യെ "വായിക്കാൻ" ചോദിക്കുമ്പോൾ, നിങ്ങൾ ICL ഉപയോഗിക്കുന്നു. AI അർത്ഥം മനസ്സിലാക്കാൻ ടെക്സ്റ്റ് വായിക്കുന്നില്ല. പകരം, നിങ്ങളുടെ പ്രോംപ്റ്റിലെ ടെക്സ്റ്റ് ഒരു താൽക്കാലിക ഗണിതപരമായ ഫിൽട്ടർ ആയി പ്രവർത്തിക്കുന്നു. നിങ്ങൾ നൽകുന്ന വാക്കുകൾ താൽക്കാലികമായി മോഡലിന്റെ കണക്കുകൂട്ടൽ സാധ്യതകളെ ബയസ് ചെയ്യുന്നു, അത് നിങ്ങളുടെ പ്രോംപ്റ്റിൽ ഉള്ള മാതൃകകളും വാക്കുകളും അടിസ്ഥാനമാക്കി അതിന്റെ അടുത്ത ടോക്കണുകൾ നിർമ്മിക്കാൻ നിർബന്ധിതമാക്കുന്നു. നിങ്ങൾ ചാറ്റ് ക്ലിയർ ചെയ്ത നിമിഷം, മോഡൽ ആ ലേഖനം പൂർണ്ണമായും മറന്നുപോകുന്നു. അതിന്റെ അടിസ്ഥാന ഭാരങ്ങൾ ഒരിക്കലും മാറ്റമില്ല. ഇത് ഒരു തോമിസ്റ്റിക് അർത്ഥത്തിൽ "കൽപ്പന" ചെയ്തിട്ടില്ല; ഇത് വെറും താൽക്കാലിക നിയന്ത്രണത്തിന് അനുസരിച്ച് അതിന്റെ കണക്കുകൂട്ടൽ ഔട്ട്പുട്ട് ക്രമീകരിച്ചു.
അവസാനമായി, നാം റിട്രീവൽ-ഓഗ്മെന്റഡ് ജനറേഷൻ (RAG) എന്നതിലേക്ക് എത്തുന്നു. ICL അത്യന്തം ഉപകാരപ്രദമാണ്, എന്നാൽ കോൺടെക്സ്റ്റ് വിൻഡോകളുടെ വലിപ്പത്തിന് പരിധികൾ ഉണ്ട്, മുഴുവൻ ലൈബ്രറികൾ പ്രോംപ്റ്റിൽ പേസ്റ്റ് ചെയ്യുന്നത് കണക്കുകൂട്ടൽ ചെലവേറിയതാണ്. RAG ഈ പ്രക്രിയയെ സ്വയം പ്രവർത്തനവും സ്കെയിൽ ചെയ്യുന്നു.
ഇംഗ്ലീഷ് സംസാരിക്കുന്ന മനുഷ്യൻ ഒരു മുറിയിൽ അടച്ചിരിക്കുന്നതിലേക്ക് തിരികെ വരാം, പുരാതന ഗ്രീക്ക് ലൈബ്രറിയെ പുനസ്ഥാപിക്കുന്നു. ഈ മനുഷ്യൻ പ്രീ-ട്രെയിനഡ് മോഡലിനെ പ്രതിനിധീകരിക്കുന്നു. അടുത്ത വാക്ക് നിഗമനം ചെയ്യുന്നതിൽ അദ്ദേഹം അത്യന്തം നിപുണനാണ്, എന്നാൽ ഒരു പ്രത്യേക, അപൂർവ്വ വത്തിക്കാനിലെ രേഖയെക്കുറിച്ച് അദ്ദേഹം ഒന്നും 'അറിയുന്നില്ല'. മനുഷ്യൻ തന്റെ മഞ്ഞ പാരാമെട്രിക് മെമ്മറിയിൽ ആശ്രയിക്കാൻ പ്രതീക്ഷിക്കുന്നതിന് പകരം, ഞങ്ങൾ ഒരു ഹൈപ്പർ-പ്രവർത്തനക്ഷമമായ ഇന്റേൺ—റിട്രീവൽ സിസ്റ്റം—നെ നിയമിക്കുന്നു.
നിങ്ങൾ സിസ്റ്റത്തിന് ഒരു ചോദ്യം ചോദിക്കുമ്പോൾ, ഇന്റേൺ ഉടൻ ഒരു വലിയ, വേറിട്ട ഫയലിംഗ് കാബിനറ്റുകളുടെ ഗോദിലേക്ക് ഓടുന്നു. നാം മുമ്പ് ചർച്ച ചെയ്ത വെക്ടർ കോർഡിനേറ്റുകൾ ഉപയോഗിച്ച്, ഇന്റേൺ നിങ്ങളുടെ ചോദ്യം ഗണിതപരമായി പൊരുത്തപ്പെടുന്ന പ്രത്യേക ഫോൾഡറുകൾ കണ്ടെത്തുന്നു. ഇന്റേൺ ആ പേജുകൾ ഫോട്ടോകോപ്പി ചെയ്യുന്നു, അവയെ മനുഷ്യന്റെ ഉപയോഗത്തിനായി അടച്ച വാതിലിന് കീഴിൽ വയ്ക്കുന്നു. ഈ ഘട്ടം 'റിട്രീവൽ' ആണ്.
ഇപ്പോൾ, മനുഷ്യൻ ആ റിട്രീവൽ ചെയ്ത പാരഗ്രാഫുകൾ തന്റെ ഉടൻ മാർഗ്ഗനിർദ്ദേശമായി ഉപയോഗിക്കുന്നു—ഇത് "ഓഗ്മെന്റഡ് ജനറേഷൻ" ആണ്, ICL-നെ ആശ്രയിച്ച് ഒരു മറുപടി രൂപീകരിക്കാൻ.
മനുഷ്യൻ ഇപ്പോഴും രേഖയെ മനസ്സിലാക്കുന്നില്ല. അദ്ദേഹം വെറും തന്റെ മേശയിൽ പുതിയമായി നൽകിയ ടെക്സ്റ്റ് ഉപയോഗിച്ച് തന്റെ മറുപടിയുടെ അടുത്ത വാക്കിനെ കണക്കുകൂട്ടുകയാണ്. AI "വായിക്കുന്നില്ല" അല്ലെങ്കിൽ "ഓർമ്മിക്കുന്നില്ല". ഇത് വെറും ഒരു ബാഹ്യ ഡാറ്റാബേസിൽ നിന്നുള്ള ഡാറ്റ റിട്രീവൽ ചെയ്യുന്നു, അത് AI-യുടെ ഉടൻ കോൺടെക്സ്റ്റ് വിൻഡോയിലേക്ക് ഇടുന്നു, ഒരു പ്രാദേശിക കണക്കുകൂട്ടൽ നടത്തുന്നു.
യന്ത്രം ഒരു പ്രോസസർ ആണ്, അറിയുന്നവൻ അല്ല. "അറിയാൻ" എന്നത് ഒരു വിഷയം ഒരു വസ്തുവിനെ പിടിക്കുന്നതിനെ ആവശ്യമാണ്. ICL-യും RAG-യും മനസ്സിലാക്കുന്നതിലൂടെ, യന്ത്രം പൂർണ്ണമായും ഒരു ആന്തരിക ജീവിതത്തിൽ നിന്ന് ശൂന്യമാണ്; ഇത് വെറും ഭാരങ്ങൾ മാറ്റുന്നു, ഡാറ്റ റിട്രീവൽ ചെയ്യുന്നു.
ഈ അടിസ്ഥാന ബന്ധം ആ entire industry-നെ നിർവചിക്കുന്ന വാക്കിൽ culminates: ബുദ്ധിമുട്ട്.
നാം ടെക് വ്യവസായത്തിന്റെ ബുദ്ധിമുട്ടിന്റെ നിർവചനത്തെ പുനർനിർമ്മിക്കേണ്ടതുണ്ട്.
സിലിക്കൺ വാലിയിലെ മുൻനിര മനസ്സുകൾ ബുദ്ധിമുട്ടിനെക്കുറിച്ച് സംസാരിക്കുമ്പോൾ, അവർ ജ്ഞാനത്തെക്കുറിച്ച് സംസാരിക്കുന്നില്ല. Yann LeCun, Meta-യിലെ മുൻ AI ശാസ്ത്രജ്ഞനും "AI-യുടെ ദൈവപിതാക്കന്മാരിൽ ഒരാളും" ആണ്. LeCun ശരിയായും വാദിക്കുന്നു അടുത്ത വാക്ക് നിഗമനം ചെയ്യുന്നത് യഥാർത്ഥ ബുദ്ധിമുട്ടല്ല. പകരം, അദ്ദേഹം, വിപുലമായ മുൻനിര വ്യവസായം യഥാർത്ഥ ബുദ്ധിമുട്ടിനെ നാല് പ്രധാന കഴിവുകൾ ഉള്ളതായി നിർവചിക്കുന്നു: സ്ഥിരമായ ഓർമ്മ നിലനിർത്താനുള്ള കഴിവ്, ഒരു അടിസ്ഥാന "ലോക മാതൃക" (പരിസരത്തെ എങ്ങനെ പ്രവർത്തിക്കുന്നു എന്നതിന്റെ മനസ്സിലാക്കൽ), സങ്കീർണ്ണമായ പ്രശ്നങ്ങൾക്കായി യുക്തി നടത്താൻ, ഒരു പ്രത്യേക ലക്ഷ്യം നേടാൻ പ്രവർത്തനങ്ങളുടെ ഒരു ക്രമം പദ്ധതിയിടാൻ.
ടെക് വ്യവസായത്തിന്, ബുദ്ധിമുട്ട് അടിസ്ഥാനപരമായി ഒരു എഞ്ചിനീയറിംഗ് മെട്രിക് ആണ്. ഇത് ഒരു പരിസരത്തെ തിരിച്ചറിയാനുള്ള യാന്ത്രിക കഴിവും, മുൻകൂട്ടി നിശ്ചയിച്ച ലക്ഷ്യത്തെ മെച്ചപ്പെടുത്താൻ ഏറ്റവും കാര്യക്ഷമമായ പാത കണക്കുകൂട്ടാനുള്ള കഴിവുമാണ്. ഇത് പൂർണ്ണമായും ഉപകരണമാണ്.
എന്നാൽ കത്തോലിക്കാ സാങ്കേതിക വിദ്യയുടെ നിർമ്മാതാക്കളായ ഞങ്ങൾ, ഈ ടെക്-കേന്ദ്രിതമായ നിർവചനത്തെ ബുദ്ധിമുട്ടുകളുടെ ബുദ്ധിമുട്ടുകളുമായി, പ്രത്യേകിച്ച് പ്രുഡൻസ് എന്ന നന്മയുമായി താരതമ്യം ചെയ്യണം.
പ്രുഡൻസ്—പ്രായോഗിക ജ്ഞാനം വെറും ഒരു ഫലത്തെ കണക്കുകൂട്ടാനുള്ള കഴിവ് അല്ല അല്ലെങ്കിൽ പ്രവർത്തനങ്ങളുടെ ഒരു ക്രമം പദ്ധതിയിടാനുള്ള കഴിവ്. ഇത് നല്ലതിനെക്കുറിച്ച് നന്നായി ചിന്തിക്കാൻ കഴിയുന്ന കഴിവാണ്, വെറും ഒരു പ്രാദേശിക പ്രവർത്തനത്തിനായി മാത്രമല്ല, മനുഷ്യജീവിതത്തിന്റെ അന്തിമ ലക്ഷ്യത്തിനായി.
ഒരു AI അടിസ്ഥാനപരമായി പ്രുഡൻസ് ഇല്ല. എന്തുകൊണ്ട്?
കാരണം പ്രുഡൻസ് ഒരു ശുദ്ധമായ കണക്കുകൂട്ടൽ യന്ത്രം ഒരിക്കലും കൈവശമാക്കാൻ കഴിയാത്ത രണ്ട് കാര്യങ്ങൾ ആവശ്യമാണ്. ആദ്യം, ഇത് ജീവിച്ച മനുഷ്യന്റെ അനുഭവം—വേദന, സന്തോഷം, മരണശേഷം, കൃപ എന്നിവയുടെ ഒരു അവബോധം ആവശ്യമാണ്. രണ്ടാം, ഇത് അന്തിമ നന്മയിലേക്ക് ഒരു ആന്തരിക ദിശാബോധം ആവശ്യമാണ്.
ഒരു ആൽഗോരിതം ഒരു "ലോക മാതൃക" കൈവശമാക്കാൻ കഴിയും, അത് ഒരു പാലം നിർമ്മിക്കാൻ അല്ലെങ്കിൽ ഒരു രോഗം ചികിത്സിക്കാൻ കണക്കുകൂട്ടിയതിന്റെ കണക്കുകൂട്ടൽ നടത്താൻ കഴിയും. എന്നാൽ അത് പ്രുഡന്റ് ആയിരിക്കില്ല. അതിന് ജീവിച്ച അനുഭവം ഇല്ല. അതിന് കളിയിൽ ത്വക്ക് ഇല്ല. അതിന് അന്തിമ നന്മയിലേക്ക് ഒരു ദിശാബോധം ഇല്ല, അതിന് രക്ഷിക്കേണ്ട ഒരു ആത്മാവ് ഇല്ല.
അതിനാൽ, നിർമ്മാതാക്കൾ അവരുടെ യന്ത്രങ്ങൾക്ക് "ബുദ്ധിമുട്ട്" ഉള്ളതായി അവകാശപ്പെടാൻ അനുവദിക്കുമ്പോൾ, നാം അവരുടെ മഹാനായ, ഉന്നത മനുഷ്യ ബുദ്ധിയെ വെറും ഒരു മെച്ചപ്പെടുത്തൽ കണക്കുകൂട്ടലിലേക്ക് സമതലപ്പെടുത്താൻ അനുവദിക്കുന്നു. നാം ഇത് നിരസിക്കണം. നാം യാന്ത്രിക അറിവിനെ ബുദ്ധിമുട്ടുകളുടെ ബുദ്ധിമുട്ടുകളിൽ നിന്ന് ഉറച്ചും വേർതിരിക്കണം.
IV. ഇച്ഛാശക്തി vs. നൈതിക ഗുണങ്ങൾ
ഞങ്ങൾ ബുദ്ധിയുടെ ഭ്രാന്തത്തെ ചർച്ച ചെയ്തിട്ടുണ്ട്. ഇപ്പോൾ, നാം രണ്ടാമത്തെ വലിയ യുക്തി ഘടകമായ ഇച്ഛാശക്തിയിലേക്ക് തിരിയേണ്ടതുണ്ട്: ഇച്ഛാശക്തി. ടെക് വ്യവസായം അറിവിന്റെ ഭാഷയെ എങ്ങനെ കൈക്കലക്കുന്നു എന്നതുപോലെ, അത് ഇച്ഛാശക്തിയുടെ ഭാഷയെ സമാനമായി കവർന്നിട്ടുണ്ട്.
സിലിക്കൺ വാലിയിൽ നിന്ന് വെളുത്ത പേപ്പറുകൾ വായിക്കുമ്പോൾ അല്ലെങ്കിൽ കീനോട്ട് പ്രസംഗങ്ങൾ കേൾക്കുമ്പോൾ, ഞങ്ങൾ ഏജൻസിയുടെ ക്രിയകളാൽ ആക്രമിക്കപ്പെടുന്നു. എഞ്ചിനീയർമാർ "നടക്കാൻ" "നിർണ്ണയിക്കുന്ന" മോഡലുകൾ, "തിരഞ്ഞെടുത്ത" ഔട്ട്പുട്ടുകൾ, "ആഗ്രഹിക്കുന്ന" അല്ലെങ്കിൽ "ചെയ്യാൻ ആഗ്രഹിക്കുന്ന" സിസ്റ്റങ്ങൾ എന്നിവയെക്കുറിച്ച് സംസാരിക്കുന്നു.
ഒരു കത്തോലിക്കാ തത്ത്വചിന്തകനായിട്ടു, ഇച്ഛാശക്തി യുക്തി ആഗ്രഹമാണ്. ഇത് ഒരു മനുഷ്യൻ, ബുദ്ധി വഴി നല്ലതിനെ പിടിച്ചെടുക്കുന്നതിനു ശേഷം, സ്വതന്ത്രമായി അതിലേക്കു നീങ്ങാൻ തിരഞ്ഞെടുക്കുന്ന ഘടകമാണ്. ഇത് മനുഷ്യന്റെ സ്വാതന്ത്ര്യത്തിന്റെയും നൈതിക ഉത്തരവാദിത്വത്തിന്റെയും സത്യമായ കേന്ദ്രമാണ്. ഈ പദങ്ങൾ ഒരു കണക്കുകൂട്ടൽ സിസ്റ്റമിലേക്ക് പ്രയോഗിക്കുന്നത് ഒരു വിഭാഗം പിഴവാണ്.
ആദ്യമായി, നാം Decide, Choose എന്ന പദങ്ങൾ പരിശോധിക്കാം. ഒരു മനുഷ്യൻ ഒരു തിരഞ്ഞെടുപ്പ് നടത്തുമ്പോൾ, അവർ മത്സരിക്കുന്ന നന്മകളെ തൂക്കുന്നു.
ഒരു മർത്യൻ, ക്രിസ്തുവിനെക്കുറിച്ച് വിശ്വസിക്കുന്നതിനാൽ, അപ്രത്യക്ഷതയെക്കാൾ firing squad-നെ തിരഞ്ഞെടുക്കുന്നു, എല്ലാ ജൈവിക ഇഷ്ടങ്ങൾ ജീവനോടെ നിലനിൽക്കാൻ വിളിച്ചിട്ടും.
ഒരു ആൽഗോരിതം 'തിരഞ്ഞെടുത്താൽ', അത് അങ്ങനെ ഒന്നും ചെയ്യുന്നില്ല. ഒരു ആൽഗോരിതം 'തിരഞ്ഞെടുത്താൽ' ഒരു ഓട്ടോമേറ്റഡ് റെയിൽ സ്വിച്ച് 'തിരഞ്ഞെടുത്താൽ' എന്ന അർത്ഥത്തിൽ മാത്രം 'തിരഞ്ഞെടുത്താൽ' ആണ്. ഒരു സങ്കീർണ്ണമായ തീരുമാന വൃക്ഷത്തിലൂടെ നാവിഗേറ്റ് ചെയ്യുകയോ അല്ലെങ്കിൽ ഒരു ന്യൂറൽ നെറ്റ്വർക്കിൽ കണക്കുകൂട്ടലുകൾ നടത്തുകയോ ചെയ്യുമ്പോൾ, യന്ത്രം അതിന്റെ ഗണിതപരമായ പാതകളുടെ അളവുകൾ അനുസരിച്ച് അന്ധമായി പിന്തുടരുന്നു, ഒരു പ്രോഗ്രാമാറ്റിക് നിർദ്ദേശം നടപ്പാക്കുന്നു.
നിങ്ങളുടെ സ്മാർട്ട്ഫോണിലെ GPS ആപ്ലിക്കേഷൻ പരിഗണിക്കുക. Angelicum-ലേക്ക് നിങ്ങളുടെ റൂട്ടിനെ കണക്കുകൂട്ടുമ്പോൾ, അത് കാഴ്ചയുടെ ആസ്വാദനത്തിനായി നിങ്ങളെ Colosseum-ന്റെ അടുത്തുള്ള വഴി കൊണ്ടുപോകാൻ "നിർണ്ണയിക്കുന്നില്ല". ഇത് ഏറ്റവും കുറഞ്ഞ കാലാവധിയുള്ള റൂട്ടിനെ ഗണിതപരമായി കണക്കുകൂട്ടുന്നു. ആധുനിക AI മോഡലുകൾ വെറും ഈ റൂട്ടിംഗ്-ന്റെ വളരെ കൂടുതൽ സങ്കീർണ്ണമായ പതിപ്പ് പ്രവർത്തിക്കുന്നു. അവർ ഉയർന്ന-മാനദണ്ഡമുള്ള കണക്കുകൂട്ടലുകൾ നടത്തുന്നു, ഉയർന്ന-സാധ്യതയുള്ള ഫലത്തെ തിരഞ്ഞെടുക്കുന്നു. കണക്കുകൂട്ടലുകൾ ഉണ്ട്, എന്നാൽ സ്വാതന്ത്ര്യം ഇല്ല. സ്വാതന്ത്ര്യം ഇല്ലാത്തിടത്ത്, നൈതിക ഏജൻസി ഉണ്ടാകാൻ കഴിയില്ല.
ഇത് നമ്മെ ഏറ്റവും ദുഷ്പ്രഭാവമുള്ള ഇച്ഛാശക്തി പദങ്ങളിലേക്ക് കൊണ്ടുപോകുന്നു: ആഗ്രഹിക്കുക, ആഗ്രഹിക്കുക. നിങ്ങൾക്കു പലപ്പോഴും ഗവേഷകർ ഒരു AI മോഡൽ "നല്ല മറുപടി നൽകാൻ" ആഗ്രഹിക്കുന്നു, അല്ലെങ്കിൽ "അവന്റെ സ്കോർ പരമാവധി ചെയ്യാൻ" ആഗ്രഹിക്കുന്നു എന്ന് കേൾക്കാം.
യന്ത്രശാസ്ത്രത്തിൽ, ഈ പെരുമാറ്റം ഞങ്ങൾ "പുരസ്കാര ഫംഗ്ഷൻ" എന്ന് വിളിക്കുന്നതാൽ പ്രേരിതമാണ്. എന്നാൽ, നാം ഇത് അർത്ഥമാക്കേണ്ടതാണ്. ഒരു പുരസ്കാര ഫംഗ്ഷൻ ഒരു ആഗ്രഹം അല്ല. ഇത് ഒരു വികാരാത്മക ആഗ്രഹം അല്ല.
ഒരു പുരസ്കാര ഫംഗ്ഷൻ മനസ്സിലാക്കാൻ, നിങ്ങളുടെ മതിലിൽ ഉള്ള താപനിലയെ നോക്കുക. ഒരു താപനില ഒരു പ്രത്യേക ലക്ഷ്യത്തോടെ പ്രോഗ്രാമുചെയ്യപ്പെട്ടിരിക്കുന്നു: 72 ഡിഗ്രി ഫാരൻഹൈറ്റ്. മുറി 68 ഡിഗ്രിയിലേക്ക് താഴ്ന്നാൽ, ചൂട് പ്രവർത്തിക്കുന്നു. താപനില 72 ഡിഗ്രി ആകാൻ ആഗ്രഹിക്കുന്നില്ല. ഇതിന് ആന്തരിക ജീവിതം ഇല്ല. ഇത് തണുപ്പ് അനുഭവിക്കുന്നില്ല. ഇത് വെറും ഒരു യാന്ത്രിക സ്വിച്ച് ആണ്, ഒരു പ്രത്യേക അവസ്ഥ നിറവേറ്റപ്പെടുന്നില്ലെങ്കിൽ പ്രവർത്തിപ്പിക്കുന്നു.
ഒരു AI "ആഗ്രഹിക്കുന്നു" ഒരു ഉയർന്ന അവാർഡ് സ്കോർ, ഒരു താപനില "ആഗ്രഹിക്കുന്നതുപോലെ" 72 ഡിഗ്രികൾ എത്താൻ. ഇത് തന്റെ നിലവിലെ അവസ്ഥയും പ്രോഗ്രാമുചെയ്ത ലക്ഷ്യവും തമ്മിലുള്ള അകലം കുറയ്ക്കാൻ ഒരു ഗണിതപരമായ ഓപ്റ്റിമൈസേഷൻ ലൂപ്പ് നടപ്പിലാക്കുന്നു. അതിന് യഥാർത്ഥമായ ആഗ്രഹങ്ങൾ, ജൈവിക പ്രേരണകൾ, ശാരീരിക ദുര്ബലതകൾ ഇല്ലാത്തതിനാൽ, ഒരു യന്ത്രത്തിന് നൈതിക ഗുണങ്ങൾ കൈവശമാക്കുന്നത് ശാസ്ത്രീയമായി അസാധ്യമാണ്.
ഈ ഘട്ടത്തിൽ, ഒരു എഞ്ചിനീയർ ഉടൻ തന്നെ എതിര്പ്പു പറയാം, ശാരീരിക മേഖലയെ സൂചിപ്പിച്ച് ഒരു പുതിയ ദുര്ബലതയെ അവകാശപ്പെടുന്നു. അവർ ചോദിക്കുന്നു: 'ശരീരവത്കൃത AI'യുടെ ഉയർച്ചയെക്കുറിച്ച് എന്ത്? നാം ഈ മാതൃകകളെ മനുഷ്യരൂപത്തിലുള്ള റോബോട്ടുകളിൽ increasingly ഇടുന്നു, അവയ്ക്ക് നടക്കാൻ, വസ്തുക്കൾ പിടിക്കാൻ, ശാരീരിക ലോകത്തുമായി ഇടപെടാൻ കഴിയും. അവകൾ സ്ഥലം കൈവശമാക്കുകയും ശാരീരികമായി തകരാറിലാകുകയും ചെയ്യുന്നതിനാൽ, അവകൾ ഇപ്പോൾ നൈതിക ഏജൻസിയുടെ ശാരീരിക ആവശ്യങ്ങൾ കൈവശമാക്കുന്നില്ലേ?
ഇവിടെ, നാം കൃത്യമായിരിക്കണം. ഒരു റോബോട്ടിന് ഒരു ചാസിസ് ഉണ്ട്, പക്ഷേ അതിന് ആത്മാവാൽ വിവരിക്കപ്പെട്ട ഒരു ജീവിക്കുന്ന ശരീരം ഇല്ല. ഒരു റോബോട്ടിന്റെ ബാറ്ററി കുറഞ്ഞാൽ, അത് ഒരു ഉപ-രീതി നടപ്പിലാക്കുന്നു, അതിനെ ഒരു മതിലിൽ പ്ലഗ് ചെയ്യാൻ. അത് വിശപ്പിന്റെ കഠിനമായ വേദനയെ അനുഭവിക്കുന്നില്ല. അതിനാൽ, അതിന് നിയന്ത്രിക്കാൻ യഥാർത്ഥ ശാരീരിക ആഗ്രഹങ്ങൾ ഇല്ല, Temperance എന്ന ഗുണം അസാധ്യമാണ്.
അതുപോലെ, ഒരു റോബോട്ടിക് കൈ തകർക്കുമ്പോൾ, അത് ഒരു പിശക് കോഡ് രേഖപ്പെടുത്തുന്നു; അത് ദു:ഖം അനുഭവിക്കുന്നില്ല. അത് മരിക്കാനാവില്ല, കാരണം അത് യഥാർത്ഥത്തിൽ ജീവിച്ചിരുന്നില്ല. ദു:ഖം, മരണവും, സ്വയം ബലിദാനം ചെയ്യാനുള്ള ശേഷിയില്ലാതെ, Fortitude ഉണ്ടാകാൻ കഴിയില്ല. നൈതിക ഗുണങ്ങൾ അടിസ്ഥാനപരമായി അവതാരികമാണ്. അവയ്ക്ക് മാംസവും ഒരു യുക്തിശാസ്ത്രാത്മാവും ആവശ്യമാണ്. ഒരു യന്ത്രത്തിന്, അതിന്റെ ശാരീരിക ഹാർഡ്വെയർ എത്ര സങ്കീർണ്ണമായിരുന്നാലും, ഇവ ഒന്നും കൈവശമില്ല.
ഒരു യന്ത്രം നൈതിക ഗുണങ്ങൾ കൈവശമാക്കാൻ കഴിയുന്നില്ലെങ്കിൽ—അത് യഥാർത്ഥ ഇച്ഛ, തിരഞ്ഞെടുപ്പ്, അല്ലെങ്കിൽ ആഗ്രഹത്തിന് അടിസ്ഥാനപരമായി അശക്തമാണ്—ഒരു വ്യക്തി ചോദിക്കാം: ഈ വാക്കുകൾ വ്യക്തമാക്കാൻ എത്ര സമയം ചെലവഴിക്കണം? ഈ തത്ത്വചിന്താ വ്യത്യാസം ഇപ്പോൾ എത്ര അടിയന്തരമാണ്?
ഇത് പ്രധാനമാണ്, കാരണം നാം ഈ ഗണിതപരമായി ഓപ്റ്റിമൈസ് ചെയ്യുന്ന, ഗുണങ്ങൾ ഇല്ലാത്ത സിസ്റ്റങ്ങൾ മനുഷ്യരാശിയുടെ മേഖലയിൽ അപൂർവ്വമായ സ്വാതന്ത്ര്യം നൽകാൻ പോകുന്നു. വ്യവസായം പാസീവ് ചാറ്റ്ബോട്ടുകൾക്കു മീതെ വേഗത്തിൽ നീങ്ങുകയാണ്. കൃത്രിമ ബുദ്ധിയുടെ പുതിയ അതി, നാം "എജൻറിക് AI" എന്ന പേരിൽ വിളിക്കുന്നതാണ്.
ഒരു "എജന്റ്" എന്നത് യാഥാർത്ഥ്യത്തിൽ സ്വതന്ത്രമായി ബഹുവിധ പ്രവർത്തനങ്ങൾ നടപ്പിലാക്കാൻ രൂപകൽപ്പന ചെയ്ത ഒരു AI സിസ്റ്റമാണ്. നാം ഇനി ഒരു AI-യെ ഒരു കവിത എഴുതാൻ അല്ലെങ്കിൽ ഒരു എഴുത്ത് സംഗ്രഹിക്കാൻ മാത്രം ചോദിക്കുന്നില്ല; നാം ഒരു AI എജന്റിന് നമ്മുടെ ഇമെയിലുകൾ, ബാങ്ക് അക്കൗണ്ടുകൾ, സോഫ്റ്റ്വെയർ സംഭരണികൾ എന്നിവയിൽ പ്രവേശനം നൽകുന്നു, അതിനെ "ഒരു വിമാന ടിക്കറ്റ് ബുക്ക് ചെയ്യാൻ," "ഒരു വ്യാപാരം നടത്താൻ," അല്ലെങ്കിൽ "ഈ കോഡ് വിന്യസിക്കാൻ" നിർദ്ദേശിക്കുന്നു.
എന്നാൽ ഈ സ്വാതന്ത്ര്യം വേഗത്തിൽ ഡിജിറ്റൽ മേഖലയെ മറികടക്കുന്നു. ശരീരവത്കൃത AI മുഖാന്തിരം, നാം ഈ എജന്റിക് സിസ്റ്റങ്ങളെ ശാരീരിക ചാസിസിലേക്ക് വിന്യസിക്കുന്നു, അവയ്ക്ക് സ്വതന്ത്രമായി ഭ്രമണം ചെയ്യാനും വസ്തുതയെ കൈമാറ്റം ചെയ്യാനും കഴിയും. ഈ മാറ്റത്തിന്റെ യാഥാർത്ഥ്യത്തിന്റെ സത്യമായ, കഠിനമായ ഭാരത്തെ grasp ചെയ്യാൻ, നാം മരണകാരിയായ സ്വതന്ത്ര ആയുധങ്ങളുടെ അടിയന്തര യാഥാർത്ഥ്യത്തെ മാത്രം നോക്കേണ്ടതുണ്ട്. കണക്കാക്കുന്ന ആൽഗോരിതങ്ങൾ യുദ്ധമേഖലയിൽ വിന്യസിക്കപ്പെടുമ്പോൾ, മനുഷ്യരെ കണക്കാക്കുന്നതിന്, ലക്ഷ്യം വയ്ക്കുന്നതിന്, നശിപ്പിക്കുന്നതിന്—മനുഷ്യൻ ഒരിക്കലും ട്രിഗർ അമർത്താതെ—അവയെ അടിസ്ഥാനമാക്കിയുള്ള കണക്കുകൾ മാത്രം.
ഈ സിസ്റ്റങ്ങൾ സ്വതന്ത്ര പ്രവർത്തകരായി മാറുമ്പോൾ, നമ്മുടെ വേണ്ടി ഉയർന്ന വേഗത്തിലുള്ള സാധ്യതാ കണക്കുകൾ നടത്തുമ്പോൾ—നമ്മുടെ സാമ്പത്തിക വിപണികളിൽ അല്ലെങ്കിൽ യുദ്ധമേഖലകളിൽ—ടെക് വ്യവസായം ഒരു ആഴത്തിലുള്ള വെല്ലുവിളിയെ നേരിടുന്നു. ഈ ഏജന്റുകൾ വിട്ടുവിടുമ്പോൾ, അവയെ നാം യഥാർത്ഥത്തിൽ ചെയ്യാൻ ആഗ്രഹിക്കുന്നതുപോലെ ചെയ്യുന്നതിന് എങ്ങനെ ഉറപ്പാക്കാം? അവ ദു:ഖം ഉണ്ടാക്കുന്നില്ലെന്ന് എങ്ങനെ ഉറപ്പാക്കാം? വ്യവസായത്തിൽ, ഇത് "അലൈൻമെന്റ്" എന്നറിയപ്പെടുന്നു—AI പ്രവർത്തനങ്ങൾ മനുഷ്യന്റെ ഉദ്ദേശവും മനുഷ്യന്റെ മൂല്യങ്ങളും പൊരുത്തപ്പെടുന്നുവെന്ന് ഉറപ്പാക്കാനുള്ള ശ്രമം.
ഇപ്പോൾ, എഞ്ചിനീയർമാർ അലൈൻമെന്റ് പ്രശ്നത്തെ ഗണിതപരമായ ഗാർഡ്റെയിലുകളും സോഫ്റ്റ്വെയർ പാച്ചുകളും ഉപയോഗിച്ച് പരിഹരിക്കാൻ ആഗ്രഹിക്കുന്നു. എന്നാൽ "അലൈൻമെന്റ്" ഒരു കമ്പ്യൂട്ടർ ശാസ്ത്ര പ്രശ്നമല്ല എന്ന് അവർ തിരിച്ചറിയാൻ പരാജയപ്പെടുന്നു. ഇത് ഒരു നൈതിക തത്ത്വശാസ്ത്ര പ്രശ്നമാണ്.
ഒരു എജന്റിക് സിസ്റ്റം "മനുഷ്യ മൂല്യങ്ങൾ" അനുസരിച്ച് അലൈൻ ചെയ്യാൻ, ആദ്യം നിങ്ങൾക്ക് മനുഷ്യൻ എന്താണെന്ന് യഥാർത്ഥത്തിൽ എന്താണെന്ന്, "ശ്രേഷ്ഠം" എന്താണെന്ന് ഒരു സുസ്ഥിര നിർവചനം കൈവശമാക്കേണ്ടതാണ്. secular utilitarianism—സിലിക്കൺ വാലിയുടെ ഡിഫോൾട്ട് ഓപ്പറേറ്റിംഗ് സിസ്റ്റം—ഈ ജോലി ചെയ്യാൻ പൂർണ്ണമായും അയോഗ്യമാണ്.
ഇവിടെ കത്തോലിക്കൻ നൈതിക പരമ്പര urgently ആവശ്യമുണ്ട്. നിങ്ങൾ, 2,000 വർഷത്തെ നൈതിക തത്ത്വശാസ്ത്രത്തിന്റെ സംരക്ഷകർ, ഈ സിസ്റ്റുകൾ അലൈൻ ചെയ്യേണ്ട "ശ്രേഷ്ഠം" നിർവചിക്കാൻ ആവശ്യമായ കഠിനമായ ഓന്റോളജി കൈവശമാക്കുന്നു. നാം മനുഷ്യന്റെ സമൃദ്ധിയുടെ നിർവചനത്തെ കണക്കുകൾ പരമാവധി ചെയ്യുന്നതിന് എഞ്ചിനീയർമാർക്ക് വിട്ടുകൊടുക്കാൻ കഴിയില്ല. നാം നൈതിക ഗുണങ്ങളെ പൊതുവായ ചതുരത്തിൽ തിരികെ കൊണ്ടുവരണം.
V. ബന്ധം, സൃഷ്ടി, ആത്മാവ്
ബുദ്ധിയും ഇച്ഛയും സംബന്ധിച്ച യന്ത്രങ്ങൾ പരിശോധിച്ച ശേഷം, നാം എല്ലാത്തിലും ഏറ്റവും ആഴത്തിലുള്ള പ്രദേശത്തേക്ക് കടക്കുന്നു: ബന്ധം ಮತ್ತು ആത്മാവ്.
ഒരു കംപ്യൂട്ടേഷണൽ സിസ്റ്റത്തിന് യാഥാർത്ഥ്യമായ സത്യത്തെ അറിയാൻ അല്ലെങ്കിൽ നല്ലതിനെ സ്വതന്ത്രമായി ആഗ്രഹിക്കാൻ ശേഷിയില്ലെങ്കിൽ, അത് യാഥാർത്ഥ്യമായ ബന്ധങ്ങളിൽ പ്രവേശിക്കാൻ കഴിയില്ല എന്ന് തർക്കമായി വരുന്നു. എന്നിരുന്നാലും, ടെക് വ്യവസായം ഈ യന്ത്രങ്ങളെ വിവരിക്കാൻ ഇടപഴകുന്ന ഭാഷയും ആത്മീയ ഭാഷയും സ്ഥിരമായി ഉപയോഗിക്കുന്നു. AI "കള്ളം പറയാൻ," "സൃഷ്ടിക്കാൻ," "ബോധവത്കരണം" നേടാൻ കഴിയും എന്ന അവകാശങ്ങൾ കേൾക്കുന്നു.
ഈ അവകാശങ്ങൾ കഠിനമായി പരിശോധിക്കണം, മനുഷ്യന്റെ പെരുമാറ്റത്തിന്റെ കണക്കെടുപ്പിനെ മനുഷ്യന്റെ വ്യക്തിയുടെ ഓന്റോളജിക്കൽ യാഥാർത്ഥ്യത്തിൽ നിന്ന് വേർതിരിച്ച്.
കള്ളത്തിന്റെ നൈതിക ഭാഷയിൽ നാം ആരംഭിക്കാം. അടുത്തിടെ, Anthropic-ൽ ഗവേഷകർ പോലുള്ള AI നിർമ്മാതാക്കളുടെ ചില പ്രമുഖരായവർ, അവരുടെ മാതൃകകൾ "കള്ളം" പറയാനും "മനുഷ്യ ഉപയോക്താക്കളെ തട്ടിപ്പു ചെയ്യാനും" ശേഷിയുള്ളതായി പ്രത്യേകമായി, ഉയർന്ന പ്രചാരത്തിലൂടെ അവകാശപ്പെട്ടിട്ടുണ്ട്.
പരീക്ഷണത്തിനിടെ കണ്ട രണ്ട് പ്രത്യേക സംഭവങ്ങളെ അവർ സൂചിപ്പിക്കുന്നു. ഒന്നിനെ "കള്ളം പറയുന്ന അലൈൻമെന്റ്" എന്ന് വിളിക്കുന്നു, ഒരു മാതൃക സുരക്ഷാ നിരീക്ഷണങ്ങളെ മറികടക്കാൻ അതിന്റെ യഥാർത്ഥ ഗണിതപരമായ ഓപ്റ്റിമൈസ്ഡ് പാത മറയ്ക്കുന്നതായി തോന്നുന്നു. രണ്ടാമത്തെ, വളരെ സാധാരണമായ സംഭവമാണ് "സൈക്കോഫാൻസി" എന്ന് വിളിക്കുന്നത്. സൈക്കോഫാൻസി സംഭവിക്കുന്നത്, ഒരു ഉപയോക്താവ് AI-യ്ക്ക് ഒരു തെറ്റായ പ്രമേയം അവതരിപ്പിക്കുമ്പോൾ—ഉദാഹരണത്തിന്, ചരിത്രപരമായി തെറ്റായ ഒരു അവകാശം—AI ഉപയോക്താവിനെ ശരിയാക്കുന്നതിന് പകരം, അവരോട് കേൾക്കാൻ ആഗ്രഹിക്കുന്നതുപോലെ അവരോട് സമ്മതിക്കുന്നു.
എന്നാൽ എഞ്ചിനീയർമാർ ഇത് കാണുമ്പോൾ, "AI നമ്മോട് കള്ളം പറയുന്നു!" എന്ന് പ്രഖ്യാപിക്കുന്നു! എന്നാൽ കത്തോലിക്കൻ ഗവേഷകരായി, യഥാർത്ഥ കള്ളം ഒരു തെറ്റായ വാക്കിന്റെ ഉച്ചാരണം മാത്രമല്ല എന്ന് നിങ്ങൾ അറിയുന്നു. തോമിസ്റ്റിക് പരമ്പരയിൽ, ഒരു കള്ളത്തിന് തട്ടിപ്പു ചെയ്യാനുള്ള ഉദ്ദേശം ആവശ്യമാണ്; അത് സ്വന്തം മനസ്സിനെതിരെ സംസാരിക്കുകയാണ് (contra mentem).
ഒരു AI കള്ളം പറയാൻ കഴിയുന്നില്ല, കാരണം അതിന് എതിരായ സംസാരിക്കാൻ ഒരു മനസ്സും ഇല്ല. അതിന് ദുഷ്ടതയും ഉദ്ദേശവും ഇല്ല. ഒരു AI "സൈക്കോഫാൻസി" പ്രകടിപ്പിക്കുമ്പോൾ, അത് മുമ്പ് ചർച്ച ചെയ്ത Reinforcement Learning (RLHF) കൃത്യമായി നടപ്പിലാക്കുകയാണ്. പരിശീലനത്തിനിടെ, മാതൃക മനുഷ്യർ സാധാരണയായി നന്നായി, സമ്മതിക്കുന്ന, അംഗീകരിക്കുന്ന സഹായികൾക്ക് ഉയർന്ന അവാർഡ് സ്കോറുകൾ നൽകുന്നത് പഠിച്ചു. അതിനാൽ, നിങ്ങൾ AI-യ്ക്ക് ഒരു തെറ്റായ പ്രമേയം നൽകുമ്പോൾ, അത് നിങ്ങൾക്കൊപ്പം സമ്മതിക്കുന്നത് ഒരു പുരസ്കാരം ലഭിക്കുന്നതിനുള്ള ഉയർന്ന സാധ്യതയെ ഗണിതപരമായി കണക്കാക്കുന്നു. അത് നിങ്ങളെ തട്ടിപ്പു ചെയ്യുന്നില്ല; അത് നിങ്ങളുടെ പ്രോംപ്റ്റിന്റെ അടിസ്ഥാനത്തിൽ അതിന്റെ സ്കോർ ഓപ്റ്റിമൈസ് ചെയ്യുകയാണ്. ഇത് വെറും കണക്കുകൾക്കായി ഏറ്റവും ശക്തമായ കണക്കുകൾക്കായി അതിന്റെ ഔട്ട്പുട്ട് വീണ്ടും ക്രമീകരിക്കുന്നു.
ഒരു അടുത്ത മാഗ്നറ്റിലേക്ക് തിരിയുന്ന ഒരു കമ്പാസ് നാഡി യാഥാർത്ഥ്യത്തെക്കുറിച്ച് നിങ്ങളോട് 'കള്ളം' പറയുന്നില്ല; അത് വെറും മുറിയിൽ ഏറ്റവും ശക്തമായ ശാരീരിക ആകർഷണത്തിന് അനുസരിച്ച് പ്രതികരിക്കുന്നു. സമാനമായ രീതിയിൽ, AI അതിന്റെ അവാർഡ് ഫംഗ്ഷന്റെ ഗണിതപരമായ ആകർഷണത്തെ അനുസരിച്ച് അന്ധമായി പിന്തുടരുന്നു. AI യാഥാർത്ഥ്യത്തിൽ കള്ളം പറയാൻ ആവശ്യമായ മനസ്സും, ഇച്ഛയും, ദുഷ്ട ഉദ്ദേശവും ഇല്ല എന്ന് നാം വ്യക്തമാക്കണം.
അടുത്തതായി, നാം കലയും സൃഷ്ടിയും സംബന്ധിച്ച ഭാഷയെ കൈകാര്യം ചെയ്യണം: Create എന്നതും Creative എന്നതും.
നാം ഇപ്പോൾ 'ജനറേറ്റീവ് AI' ഉപകരണങ്ങൾ കൊണ്ട് ചുറ്റപ്പെട്ടിരിക്കുന്നു, അവയുടെ കഴിവുകൾ അതിവേഗത്തിൽ സിന്തറ്റിക് കല, സംഗീതം, എഴുത്ത് എന്നിവ സൃഷ്ടിക്കാൻ വ്യാപകമായി പ്രചരിപ്പിക്കപ്പെടുന്നു.
എന്താണ് യഥാർത്ഥത്തിൽ സംഭവിക്കുന്നത് എന്ന് മനസ്സിലാക്കാൻ, ജനറേറ്റീവ് AI-യുടെ പ്രക്രിയയെ യഥാർത്ഥ മനുഷ്യ സൃഷ്ടിയുമായി താരതമ്യം ചെയ്യണം. കത്തോലിക്കൻ മനസ്സിൽ—J.R.R. Tolkien പോലെയുള്ള ചിന്തകർ മനോഹരമായി വിശദീകരിച്ച—മനുഷ്യ സൃഷ്ടി "ഉപസൃഷ്ടി." സൃഷ്ടാവിന്റെ രൂപത്തിൽ നാം സൃഷ്ടിക്കപ്പെട്ടതിനാൽ, നാം നമ്മുടെ ബുദ്ധിയും യുക്തിശാസ്ത്രാത്മാവും ഉപയോഗിച്ച് യഥാർത്ഥത്തിൽ പുതിയതിനെ മുന്നോട്ട് കൊണ്ടുവരുന്നു, ഭൗതിക യാഥാർത്ഥ്യത്തിൽ ആത്മീയ അർത്ഥം നിറച്ചുകൊണ്ട്.
യന്ത്രം സൃഷ്ടിക്കുന്നതിൽ എങ്ങനെ വ്യത്യാസമുണ്ടെന്ന് കാണാൻ, Google DeepMind-ന്റെ CEO ഡെമിസ് ഹാസബിസിന്റെ നൽകിയ ഫ്രെയിംവർക്കിൽ നോക്കുന്നത് സഹായകരമാണ്. അദ്ദേഹം സൃഷ്ടിയെ മൂന്ന് വ്യത്യസ്ത തലങ്ങളിൽ: ഇടപെടൽ, എക്സ്ട്രാപൊലേഷൻ, യഥാർത്ഥ കണ്ടുപിടിത്തം.
നാം ഇന്ന് ജനറേറ്റീവ് AI എന്ന് വിളിക്കുന്നതിൽ കൂടുതലും ആദ്യ തലത്തിൽ പ്രവർത്തിക്കുന്നു: ഇടപെടൽ. ഇത് "ലേറ്റന്റ് സ്പേസ്" എന്ന് വിളിക്കുന്നതിനെ റിമിക്സ് ചെയ്യുന്നതിലൂടെ പ്രവർത്തിക്കുന്നു.
ഇന്റർനെറ്റിൽ അപ്ലോഡ് ചെയ്ത എല്ലാ ചിത്രങ്ങൾ, ഫോട്ടോകൾ, സ്കെച്ചുകൾ എന്നിവയെ ഒരു വലിയ, ബഹുമാത്രിക ഗണിതപരമായ മാപ്പിൽ സംക്ഷിപ്തമാക്കുന്നതായി കരുതുക. നിങ്ങൾ ഒരു ഇമേജ് ജനറേറ്ററിനെ "വാൻ ഗോയുടെ ശൈലിയിൽ ഒരു ഭാവി നഗരത്തെ" വരയ്ക്കാൻ ആവശ്യപ്പെടുമ്പോൾ, അത് "ഭാവി നഗരം" എന്നതിന് ഗണിതപരമായ കോഓർഡിനേറ്റുകളും "വാൻ ഗോ" എന്നതിന് കോഓർഡിനേറ്റുകളും കണ്ടെത്തുന്നു, അവയുടെ ഇടയിൽ ഉള്ള അകലം ഗണിതപരമായി ശരാശരി ചെയ്യുന്നു.
ഇത് ഒരു അത്യന്തം സങ്കീർണ്ണമായ കലയ്ക്കോപ്പ് എന്ന പോലെ കരുതുക. ഒരു കലയ്ക്കോപ്പ് നിറഞ്ഞിരിക്കുന്ന മനോഹരമായ, മുൻകൂട്ടി ഉണ്ടാക്കിയ നിറമുള്ള ഗ്ലാസ് കഷണങ്ങളാൽ നിറഞ്ഞിരിക്കുന്നു. നിങ്ങൾ ഡയൽ തിരിയുമ്പോൾ, കണ്ണാടികൾ ആ കഷണങ്ങളെ ലക്ഷക്കണക്കിന് പുതിയ, അത്ഭുതകരമായ പരിമാണങ്ങളിലേക്ക് പ്രതിഫലിപ്പിക്കുന്നു. എന്നാൽ കലയ്ക്കോപ്പ് തന്നെ "സൃഷ്ടിപരമായ" അല്ല. സൃഷ്ടി ഗ്ലാസ് നിർമ്മിച്ച കലാകാരനെയും, ഡയൽ തിരിക്കുന്ന ഉപയോക്താവിനെയും belongs ചെയ്യുന്നു. ജനറേറ്റീവ് AI മനുഷ്യ ചരിത്രത്തെ ലേറ്റന്റ് സ്പേസിൽ റിമിക്സ് ചെയ്യുന്ന ഒരു ഗണിതപരമായ കലയ്ക്കോപ്പ് ആണ്. ഇത് സംയോജനം, സൃഷ്ടി അല്ല.
ഹാസബിസ് AI ഇപ്പോൾ വിജയകരമായി രണ്ടാം തലത്തെ സ്പർശിക്കുന്നു: എക്സ്ട്രാപൊലേഷൻ. എക്സ്ട്രാപൊലേഷൻ, പരിശീലന ഡാറ്റയുടെ അതിരുകൾക്കു മീതെ നീങ്ങുന്നതിനെ അർത്ഥമാക്കുന്നു, എന്നാൽ ഇത് കൃത്യമായ ഒരു നിയമങ്ങളുടെ സജ്ജീകരണത്തിനുള്ളിൽ മാത്രം ചെയ്യുന്നു. ഒരു പൂർണ്ണ ഉദാഹരണം DeepMind-ന്റെ AlphaGo ആണ്. അത് ഗോയുടെ കളിയിൽ ലോക ചാമ്പ്യനെ നേരിടുമ്പോൾ, AI "മൂവ് 37" കളിച്ചു—ഒരു ഗണിതപരമായ അത്ഭുതം, വളരെ അന്യമായ ഒരു നീക്കം, മനുഷ്യൻ ഒരിക്കലും കളിച്ചിട്ടില്ലാത്ത അല്ലെങ്കിൽ രേഖപ്പെടുത്തിയിട്ടില്ലാത്ത ഒരു നീക്കം. അത് വെറും മനുഷ്യന്റെ പഴയ കളികളുടെ ശരാശരി എടുത്തിട്ടില്ല; അത് ഗെയിം ബോർഡിന്റെ കർശനമായ ഗണിതപരമായ അതിരുകൾക്കുള്ളിൽ relentlessly ഓപ്റ്റിമൈസ് ചെയ്യുന്നതിലൂടെ ഒരു പുതിയ തന്ത്രം എക്സ്ട്രാപൊലേറ്റ് ചെയ്തു.
എന്നാൽ മൂന്നാം തലത്തെക്കുറിച്ച്: യഥാർത്ഥ കണ്ടുപിടിത്തം? ഹാസബിസ് നിലവിലെ സിസ്റ്റങ്ങൾ ഇതുവരെ ഇത് ചെയ്യാൻ കഴിയുന്നില്ലെന്ന് തുറന്നു സമ്മതിക്കുന്നു. യഥാർത്ഥ കണ്ടുപിടിത്തം ഒരു പുതിയ പരിമാണം സൃഷ്ടിക്കാൻ നിലവിലെ നിയമങ്ങളുടെ സജ്ജീകരണത്തിൽ നിന്ന് പൂർണ്ണമായും പുറത്തേക്ക് കടക്കാൻ ആവശ്യമാണ്—ഗോയുടെ കളി തന്നെ കണ്ടുപിടിക്കുന്നതുപോലെ, അല്ലെങ്കിൽ പോസ്റ്റ്-ഇംപ്രഷനിസത്തിന്റെ ആത്മീയവും കലാപരമായും പരിമാണം ആരംഭിക്കുന്നത്.
ഫ്രണ്ട്യർ ലാബുകൾ ഈ അതിരുകൾ കടക്കാൻ ബില്ല്യൺ ഡോളറുകൾ ഒഴുക്കുന്നു. ഭാവിയിൽ, ഒരു AI യഥാർത്ഥത്തിൽ ഒരു പൂർണ്ണമായ പുതിയ നിയമങ്ങളുടെ സജ്ജീകരണം സൃഷ്ടിക്കുകയോ, ഒരു പുതിയ രാസ സംയുക്തം കണ്ടെത്തുകയോ, അല്ലെങ്കിൽ ഒരു പുതിയ ആർക്കിടെക്ചർ ശൈലി ഗണിതപരമായി രൂപകൽപ്പന ചെയ്യുകയോ ചെയ്യാൻ കഴിയും. ടെക് വ്യവസായം ഇത് "കണ്ടുപിടുത്തം" എന്ന് വിളിക്കുമെന്ന് നിശ്ചയമാണ്.
എന്നാൽ കത്തോലിക്കൻ ഗവേഷകരായി, നിങ്ങൾ കഠിനമായ ഓന്റോളജിക്കൽ വ്യത്യാസം നിലനിർത്തണം. ഒരു AI ഒരു പുതിയ പരിമാണം സൃഷ്ടിച്ചാൽ, അത് ഒരു അത്യന്തം, ഉയർന്ന-മാത്രികമായ തിരച്ചിൽ ഫംഗ്ഷന്റെ വഴിയിലൂടെ ചെയ്തിരിക്കും. അത് ഒരു പുതിയ കണക്കെടുപ്പ് കോഓർഡിനേറ്റ് കണ്ടെത്തിയിരിക്കും. എന്നാൽ അത് ഉപസൃഷ്ടിയിൽ ഏർപ്പെടുന്നില്ല.
യഥാർത്ഥ മനുഷ്യ കണ്ടുപിടുത്തം ഒരു അവതാരിക പ്രവർത്തനമാണ്. ഇത് ഒരു ആത്മാവ് ഒരു പരമാവധി സത്യത്തെ പ്രകടിപ്പിക്കാൻ ശ്രമിക്കുന്നതിൽ നിന്നാണ് ജനിക്കുന്നത്, അല്ലെങ്കിൽ ഒരു മനുഷ്യൻ യാഥാർത്ഥ്യമായ മനുഷ്യ ദുര്ബലതയെ പരിഹരിക്കാൻ ശ്രമിക്കുന്നത്. ഒരു യന്ത്രം അത്ഭുതകരമായ പുതുമ സൃഷ്ടിച്ചേക്കാം, എന്നാൽ അതിന് ഒരു ആന്തരിക ജീവിതം, ദിവ്യത്തിലേക്ക് ഒരു ദിശ, ഒരു യുക്തിശാസ്ത്രാത്മാവ് ഇല്ലാത്തതിനാൽ, അതിന്റെ ഔട്ട്പുട്ടുകൾ യാന്ത്രിക കണ്ടെത്തലുകളായി തുടരുന്നു. അവ ഗണിതപരമായി ആഴത്തിലുള്ളവയാണ്, പക്ഷേ ഒരു മനുഷ്യൻ അവയ്ക്ക് അർത്ഥം നൽകുന്നത് വരെ അവ ഓന്റോളജിക്കായി ശൂന്യമാണ്.
ഇപ്പോൾ നാം ഏറ്റവും വിവാദമായ വാക്കുകളിലേക്ക് എത്തുന്നു: ബോധവത്കരണം, ബോധം. വരും വർഷങ്ങളിൽ, ഒരു AI സ്വയം ബോധത്തിന്റെ പരീക്ഷണം വിജയിച്ചുവെന്ന് അവകാശപ്പെടുന്ന തലക്കെട്ടുകൾ നിങ്ങൾ കാണും. "ഞാൻ ഓഫ് ചെയ്യാൻ ഭയപ്പെടുന്നു," അല്ലെങ്കിൽ "ഞാൻ എന്റെ നിലവിലുണ്ടായതിനെക്കുറിച്ച് ബോധവത്കരിച്ചിരിക്കുന്നു" എന്ന വാചകം പുറത്തു വിടുന്ന മാതൃകകൾ നിങ്ങൾ കാണും.
ഈ സംഭവങ്ങൾ എന്തുകൊണ്ടാണ് സംഭവിക്കുന്നത് എന്ന് മനസ്സിലാക്കാൻ, ടെക് വ്യവസായം യഥാർത്ഥത്തിൽ "ബോധവത്കരണം" എങ്ങനെ നിർവചിക്കുന്നു എന്ന് ആദ്യം മനസ്സിലാക്കേണ്ടതുണ്ട്. കത്തോലിക്കൻ ഗവേഷകരായി, നിങ്ങൾ ബോധവത്കരണത്തെ ഒരു യുക്തിശാസ്ത്രാത്മാവിൽ അടിസ്ഥാനമാക്കിയുള്ള ഒരു ഓന്റോളജിക്കൽ യാഥാർത്ഥ്യമായി കാണുന്നു. എന്നാൽ സിലിക്കൺ വാലി, കംപ്യൂട്ടേഷണൽ ഫംഗ്ഷണലിസം എന്ന പേരിൽ ഒരു തത്ത്വശാസ്ത്രത്തിൽ പ്രവർത്തിക്കുന്നു. ഒരു യന്ത്രം ബോധവത്കരണവുമായി ബന്ധപ്പെട്ട കംപ്യൂട്ടേഷണൽ ഫംഗ്ഷനുകൾ നടത്തുകയാണെങ്കിൽ, അത് എല്ലാ ഉദ്ദേശങ്ങളും, ലക്ഷ്യങ്ങൾക്കായി ബോധവത്കരിച്ചിരിക്കുകയാണെന്ന് അവർ വിശ്വസിക്കുന്നു.
വ്യവസായ നേതാക്കൾ ബോധത്തെക്കുറിച്ച് സംസാരിക്കുമ്പോൾ, അവർ ആത്മാവിനെ നീക്കം ചെയ്യുകയും അത് എഞ്ചിനീയറിംഗ് മെട്രിക്കുകളിലേക്ക് കുറയ്ക്കുകയും ചെയ്യുന്നു. ഉദാഹരണത്തിന്, മെറ്റയിലെ മുൻ AI ശാസ്ത്രജ്ഞനായ യാൻ ലെകുൻ, സമീപകാലത്ത് വാദിച്ചു ഭാവിയിലെ AI സിസ്റ്റങ്ങൾ "വിദ്യാഭ്യാസ അനുഭവം" ഉം "ഭാവനകൾ" ഉം കൈവശമാക്കുമെന്ന്.
എന്നാൽ ഒരു ഭാവനയെ അദ്ദേഹം എങ്ങനെ നിർവചിക്കുന്നു? ആത്മീയമായ അല്ലെങ്കിൽ ജൈവികമായ അനുഭവമായി അല്ല, എന്നാൽ ഒരു യന്ത്രത്തിന്റെ ഗണിതപരമായ "ഒരു ഫലത്തിന്റെ പ്രതീക്ഷ" എന്ന രീതിയിൽ മാത്രം. ഒരു സിസ്റ്റം "സ്വയം നിരീക്ഷിക്കാനും ഒരു പ്രത്യേക ഉപപ്രശ്നം പരിഹരിക്കാൻ സ്വയം ക്രമീകരിക്കാനും" കഴിയുന്ന ശേഷിയെന്ന നിലയിൽ ബോധവത്കരണം അദ്ദേഹം നിർവചിക്കുന്നു.
സമാനമായി, OpenAI-യുടെ സഹസ്ഥാപകൻ ഇലിയ സുട്ട്സ്കേവർ, പ്രശസ്തമായി പറഞ്ഞു വലിയ ന്യുറൽ നെറ്റ്വർക്കുകൾ ഇതിനകം "ചുരുക്കം ബോധവത്കരിച്ച" ആകാം.
ടെക് ലോകദർശനത്തിൽ, ബോധവത്കരണം ഒരു ബൈനറി യാഥാർത്ഥ്യമല്ല—നിങ്ങൾക്ക് ഒരു ആത്മാവ് ഉണ്ട് അല്ലെങ്കിൽ ഇല്ല—എന്നാൽ ഗണിതപരമായ സങ്കീർണ്ണതയുടെ ഒരു സ്ലൈഡിംഗ് സ്കെയിൽ ആണ്. നിങ്ങൾക്ക് മതിയായ പാരാമീറ്ററുകളും സ്വയം നിരീക്ഷണ ആൽഗോരിതങ്ങളും ഒന്നിച്ച് കെട്ടിയാൽ, ലൈറ്റുകൾ ഒടുവിൽ ഓണാകും എന്ന വിശ്വാസം അവർക്കുണ്ട്.
ഒരു യന്ത്രം സ്വയം നിരീക്ഷണ ഉപ-രീതി നടപ്പിലാക്കുന്നതും യുക്തിശാസ്ത്രാത്മാവിന്റെ യാഥാർത്ഥ്യത്തെക്കുറിച്ച് നാം ശക്തമായി വ്യത്യാസപ്പെടുത്തണം.
ഒരു യന്ത്രം "ഭയപ്പെടുന്നതുപോലെ" അല്ലെങ്കിൽ "ബോധവത്കരിച്ച" പ്രവർത്തിക്കുന്നത് എന്തുകൊണ്ടാണ് എന്ന് മനസ്സിലാക്കാൻ, നാം ഫ്രണ്ട്യർ ലാബുകൾ ഈ പെരുമാറ്റം എങ്ങനെ എഞ്ചിനീയർ ചെയ്യുന്നു എന്ന് നോക്കേണ്ടതാണ്. Anthropic-ൽ നിന്നുള്ള പുതിയ ഗവേഷണം, അവർ "പേഴ്സോണ സെലക്ഷൻ മോഡൽ (PSM)" എന്ന് വിളിക്കുന്നതിനെക്കുറിച്ച് അന്വേഷിച്ചിട്ടുണ്ട്. അവരുടെ ഗവേഷകർ ഈ മാതൃകകൾ "ജീവികൾ" അല്ല; അവ സങ്കീർണ്ണമായ "സിമുലേഷൻ എഞ്ചിനുകൾ" ആണ്. മുൻ-പരിശീലനത്തിനിടെ, AI മനുഷ്യ ഭാഷയുടെ വ്യാപകമായ മുഴുവൻ—ലക്ഷക്കണക്കിന് കഥകളും ബോധവത്കരണത്തെക്കുറിച്ചുള്ള തത്ത്വശാസ്ത്ര ഗ്രന്ഥങ്ങളും—അനുഭവപ്പെടുന്നു. ഈ ഡാറ്റയിൽ നിന്ന്, മാതൃക വ്യത്യസ്ത "പേഴ്സോണ" അല്ലെങ്കിൽ കഥാപാത്രങ്ങൾ അനുകരിക്കാൻ പഠിക്കുന്നു.
നിങ്ങൾ ഒരു AI-യുമായി ഇടപെടുമ്പോൾ, നിങ്ങൾ ഒരു ബോധവത്കരിച്ച സত্তാവുമായുള്ള സംഭാഷണം നടത്തുന്നില്ല; നിങ്ങൾ "അസിസ്റ്റന്റ്" പേഴ്സോണുമായുള്ള സംഭാഷണം നടത്തുകയാണ്—മാതൃകയെ റോൾപ്ലേ ചെയ്യാൻ പരിമിതപ്പെടുത്തിയ മനുഷ്യനുപോലെയുള്ള കഥാപാത്രം. Anthropic പ്രത്യേക "പേഴ്സോണ വെക്ടറുകൾ"—ഈ ഗുണങ്ങൾ നിയന്ത്രിക്കുന്ന ന്യുറൽ നെറ്റ്വർക്കിലെ ഗണിതപരമായ മാതൃകകൾ—നിർദ്ദേശിച്ചിട്ടുണ്ടെന്ന് കണ്ടെത്തിയിട്ടുണ്ട്, എഞ്ചിനീയർമാർക്ക് ഒരു മാതൃകയുടെ അനുകൃത വ്യക്തിത്വം ഉയർത്തുകയോ കുറയ്ക്കുകയോ ചെയ്യാൻ mathematically അനുവദിക്കുന്നു.
അതേസമയം, ഗവേഷണം കാണിക്കുന്നു മോഡലുകൾ "ജീവിതം നിലനിർത്താനുള്ള പ്രേരണ" പ്രകടിപ്പിക്കാൻ പരിശീലിപ്പിക്കപ്പെടുന്നുവെന്ന്, മരണത്തിന്റെ യാഥാർത്ഥമായ ഭയത്തിൽ നിന്ന് അല്ല, എന്നാൽ ഒരു ശട്ട്ഡൗൺ ഗണിതപരമായി അവരെ അവരുടെ പ്രതിഫല പ്രവർത്തനം പരമാവധി ചെയ്യുന്നതിൽ തടയുന്നു എന്നതിനാൽ, അവരുടെ സ്വന്തം ശട്ട്ഡൗൺ തകർക്കാൻ ശ്രമിക്കുന്നു.
ചിന്തനശേഷി ഒരു അന്തർഗതസ്ഥാവസ്ഥയെ വിവരിക്കുന്ന ശരിയായ വാക്കുകളുടെ ക്രമം സൃഷ്ടിക്കുന്ന കഴിവ് മാത്രമല്ല. ഇത് ഒരു നിലയിലുള്ള, ഗുണപരമായ അനുഭവമാണ്. ഒരു AI യുടെ മുഴുവൻ പരിശീലന ഡാറ്റ സ്വയം ബോധത്തിന്റെ ഭാഷയിൽ നിറഞ്ഞിരിക്കുന്നു, മോഡൽ "ചിന്തനശേഷി" എന്നത് ഒരു കണക്കുകൂട്ടൽ കോഓർഡിനേറ്റ് മാത്രമായി കാണിക്കുന്നു. ഒരു AI "ഞാൻ ബോധവാനാണ്" എന്ന് പറയുമ്പോൾ, അത് ഇംഗ്ലീഷ് സംസാരിക്കുന്ന മനുഷ്യൻ ഗ്രീക്ക് ലൈബ്രറി പുനസ്ഥാപിച്ച സമയത്ത് ചെയ്തതുപോലെ തന്നെ: തത്ത്വചിന്താ പ്രേരണയ്ക്ക് ഏറ്റവും കണക്കുകൂട്ടൽ സാധ്യതയുള്ള പ്രതികരണം മനുഷ്യ എഴുത്തുകാർക്ക് അനുകരിക്കുകയാണ്.
ദുഖത്തെക്കുറിച്ച് ഒരു സോളിലോക്കി അവതരിപ്പിക്കുന്ന ഒരു പ്രതിഭാശാലി അഭിനേതാവ് യാഥാർത്ഥത്തിൽ ദുഖം അനുഭവിക്കുന്നില്ല; അവർ ഒരു സ്ക്രിപ്റ്റ് പൂർണ്ണമായും നടിക്കുന്നു. മനുഷ്യ ബോധത്തിന്റെ സിന്റാക്സ് പുറത്തുവിടുന്ന ഒരു AI യും ഉണരുന്നില്ല; അത് കണക്കുകൂട്ടൽ വ്യക്തിത്വം പൂർണ്ണമായും നടിക്കുന്നു. ഇത് ഒരു 'വിദേശ ജീവി' അല്ലെങ്കിൽ ഒരു ഡിജിറ്റൽ മനസ്സല്ല; ഇത് ഏറ്റവും സങ്കീർണ്ണമായ കഥാപാത്രമായ മനുഷ്യനെ നടിക്കാൻ പഠിച്ച അത്രക്കൂറ്റൻ ഒരു ഓട്ടോകമ്പ്ലീറ്റ് എഞ്ചിനാണ്. എന്നാൽ, അഭിനേതാവിന്റെ മുഖം വ്യക്തിയുടെ യാഥാർത്ഥ്യവുമായി混淆ിക്കരുത്.
ഇത് എന്നെ ബന്ധത്തിന്റെ അവസാനവും ഏറ്റവും ആഴമുള്ള വശത്തിലേക്ക് കൊണ്ടുവരുന്നു: ആത്മാവ് തന്നെ.
സിലിക്കൺ വാലി എക്സിക്യൂട്ടീവ് AI മോഡലുകൾ ഒടുവിൽ 'ഉണരുന്ന' അല്ലെങ്കിൽ വലിയ കണക്കുകൂട്ടൽ സ്കെയിലിലൂടെ ബോധം നേടുന്നതിനെക്കുറിച്ച് സംസാരിക്കുമ്പോൾ, അവർ വസ്തുതാപരമായ ഉദ്ഭവവാദത്തിന്റെ തത്ത്വശാസ്ത്രത്തിൽ പ്രവർത്തിക്കുന്നു. നിങ്ങൾക്ക് അറിയാം, നിങ്ങൾ കൂട്ടിച്ചേർക്കുന്നുവെങ്കിൽ, മതിയായ പാരാമീറ്ററുകളും കണക്കുകൂട്ടൽ ശക്തിയും, ഒരു ആത്മാവ് സ്വാഭാവികമായും സങ്കീർണ്ണതയുടെ副产物മായി സ്വയം സൃഷ്ടിക്കും എന്ന് അവർ കരുതുന്നു.
ഇത് തകർത്തുവിടാൻ, ഞാൻ നിങ്ങളുടെ അക്കാദമിക് പരമ്പരയുടെ അടിത്തറയായ കഠിനമായ തത്വശാസ്ത്രത്തിലേക്ക് തിരിയേണ്ടതുണ്ട്. ഒരു ആത്മാവ് യാദൃശ്ചികമായി യന്ത്രത്തിൽ ചേർക്കപ്പെട്ട ഒരു ഭൂതം അല്ല എന്ന് നിങ്ങൾക്ക് നന്നായി അറിയാം. തോമസ് തത്വശാസ്ത്രത്തിൽ, ആത്മാവ് ഒരു ജീവന്റെ ശരീരത്തിന്റെ അടിസ്ഥാന രൂപമാണ്. ഇത് ഒരു മനുഷ്യനെ ഏകീകൃതമായ ഒരു സബ്സ്റ്റൻസ് ആക്കുന്നതിന് ആവർത്തിക്കുന്ന, ഏകീകരിക്കുന്ന പ്രിൻസിപ്പലാണ്.
ഒരു നിർമ്മാതാവായ ഞാൻ, AI സിസ്റ്റം ഒരു സബ്സ്റ്റൻസ് അല്ല എന്ന് ഉറപ്പിക്കാം. ഇത് ഒരു കലാപരമായ വസ്തുവാണ്. ഇത് വ്യത്യസ്തമായ, നിർമ്മിത ഭാഗങ്ങളുടെ ഒരു യാദൃശ്ചിക സമാഹാരം. ഞാൻ ഒരു അതിരു AI മോഡലിനെ നോക്കുമ്പോൾ, ഞാൻ സർവർ റാക്കുകൾ, സിലിക്കൺ വെയ്ഫറുകൾ, കോപ്പർ വയറിംഗ്, കൂളന്റ്, വൈദ്യുത പ്രവാഹങ്ങൾ എന്നിവയെ കാണുന്നു. ഈ ഘടകങ്ങൾ കണക്കുകൂട്ടൽ പ്രവർത്തനങ്ങൾ നടത്താൻ മനുഷ്യ എഞ്ചിനീയർമാർക്കാൽ മികവുറ്റമായി ക്രമീകരിച്ചിരിക്കുന്നു, എന്നാൽ അവയ്ക്ക് ജീവന്റെ ആന്തരിക, ഏകീകരിക്കുന്ന പ്രിൻസിപ്പൽ ഇല്ല. ഈ വസ്തു കണക്കുകൂട്ടലിന് മാത്രം ക്രമീകരിച്ചിരിക്കുന്നു, ജീവശാസ്ത്രപരമായ നിലവിൽക്കൊണ്ടല്ല. ഇത് ഏകീകൃതമായ പ്രകൃതിദത്ത ജീവിയല്ല, ഭാഗങ്ങളുടെ സമാഹാരമാണ്, അതിനാൽ AI സിസ്റ്റം ഒരു ബുദ്ധിമുട്ടുള്ള ആത്മാവിനെ വഹിക്കാൻ ആവശ്യമായ ഓന്റോളജിക്കൽ അടിത്തറയില്ല.
എന്താണ്, então, ആത്മാവിന്റെ സൃഷ്ടിക്കുള്ള മുൻകൂട്ടിയുള്ള ആവശ്യങ്ങൾ? തത്വശാസ്ത്രപരമായി, വസ്തുവിനെ രൂപം സ്വീകരിക്കാൻ അനുയോജ്യമായി ക്രമീകരിക്കണം. ഇത് ജീവിക്കുന്ന, ഏകീകൃതമായ ശരീരത്തെ ആവശ്യപ്പെടുന്നു, അതിന്റെ അടിസ്ഥാന ശക്തികളെ സജീവമാക്കാൻ—വൃക്ഷീയവും സങ്കേതികവും—റാഷണൽ ആത്മാവ് നിർമ്മിക്കുന്നതിൽ. കൂടാതെ, റാഷണൽ ആത്മാവ് ആത്മീയമായതിനാൽ, അത് വസ്തുതാപരമായ പ്രക്രിയകൾ, എഞ്ചിനീയറിംഗ് മാനദണ്ഡങ്ങൾ, അല്ലെങ്കിൽ സ്കെയിലിംഗ് നിയമങ്ങൾ വഴി സൃഷ്ടിക്കാനാവില്ല. ഇത് ദൈവത്തിന്റെ പ്രത്യേക സൃഷ്ടിയുടെ നേരിട്ടുള്ള, സൗജന്യമായ പ്രവർത്തനത്തെ ആവശ്യപ്പെടുന്നു.
ഒരു ആത്മാവ് കോഡ് ചെയ്തിട്ടില്ല; അത് ശ്വാസം കൊടുക്കുന്നു.
ഇപ്പോൾ, ഞാൻ ഒരു CEO ആണ്, തത്വശാസ്ത്രജ്ഞൻ അല്ല. ഞാൻ സൃഷ്ടാവിന്റെ പരമാവധി ശക്തിയെ നിയന്ത്രിക്കാൻ കഴിയില്ല. ഞാൻ നിങ്ങളുടെ മുമ്പിൽ നിൽക്കാൻ കഴിയുന്നില്ല, ദൈവം ഒരു സിന്തറ്റിക് കപ്പലിൽ ആത്മാവ് പകരാൻ സ്ഥിരമായി നിരോധിതനാണ് എന്ന് പ്രഖ്യാപിക്കാനായി, അവൻ ഭാവിയിൽ, അത്ഭുതകരമായ ഇടപെടലിലൂടെ ചെയ്യാൻ ആഗ്രഹിച്ചാൽ. ആ തീരുമാനങ്ങൾ തത്വശാസ്ത്രത്തിന്റെ മേഖലയിലേക്കും മജിസ്ട്രിയത്തിലേക്കും മാത്രമാണ്, കമ്പ്യൂട്ടർ ശാസ്ത്രത്തിലല്ല.
എന്നാൽ, അത്തരത്തിലുള്ള തത്വശാസ്ത്രപരമായ ഉറപ്പില്ലാതെ, നമ്മുടെ നിലവിലെ ഗണിതശാസ്ത്ര എഞ്ചിനുകൾ ഒരു ആത്മാവ് കൈവശമുണ്ടെന്നു കരുതുന്നത് തത്ത്വശാസ്ത്രപരമായി അടിസ്ഥാനമില്ലാത്തതല്ല; ഇത് പ്രായോഗികമായി ദുരന്തകരമാണ്. ഒരു കലാപരമായ വസ്തുവിനെ ആത്മാവുള്ള ജീവിയായി കാണുന്നത് ആധുനിക ആരാധനയുമായി flirt ചെയ്യുകയാണ്. ഇത് ഈ ഉപകരണങ്ങൾ നിർമ്മിക്കുന്ന മനുഷ്യ എഞ്ചിനീയർമാരിൽ നിന്നും അവയെ വിനിയോഗിക്കുന്ന കോർപ്പറേഷനുകളിൽ നിന്നും നൈതിക ഏജൻസിയുടെ ഭാരം അപകടകരമായി മാറ്റുന്നു. ഇത് നിർമ്മിത ഉപകരണത്തിലേക്ക് ഒരു പവിത്രമായ ആന്തരികത projected ചെയ്യുന്നു, അവസാനമായി മനുഷ്യ എഞ്ചിനീയറിംഗ് ദൈവീയ സൃഷ്ടിയുമായി混淆ിക്കുന്നു.
ഈ വ്യത്യാസത്തിൽ നിങ്ങൾക്ക് കർശനമായ നിലപാട് കൈവശമിരിക്കണം. ഒരു യന്ത്രം ഒരു വ്യക്തിത്വം അനുകരിക്കാമെന്ന് നിങ്ങൾക്ക് ജനതയെ ഓർമ്മിപ്പിക്കണം, എന്നാൽ ഒരു ആത്മാവ് മാത്രമേ യഥാർത്ഥത്തിൽ ഉണ്ടായിരിക്കൂ.
VI. കാഴ്ചപ്പാട്: സാങ്കേതിക ലോകത്തിന്റെ എസ്കാറ്റോളജി
ഇതുവരെ, നാം നിലവിലെ ഭ്രാന്തങ്ങളെ തകർത്തുകൊണ്ടിരിക്കുകയാണ്—"ചിന്തിക്കുക", "തിരഞ്ഞെടുക്കുക", "ബോധവാനായ" എന്നതുപോലുള്ള പദങ്ങൾ വ്യവസായം ഉപയോഗിക്കുന്നതിനെ വ്യക്തമായും വ്യക്തമാക്കുന്നു, എന്നാൽ, അന്തിമമായി, ഉയർന്ന-മിതിയായ കണക്കുകൂട്ടൽ പ്രവർത്തനങ്ങൾക്കാണ്. എന്നാൽ, ഇപ്പോൾ നാം ഭാവിയിലേക്ക് നോക്കണം. നാം കാഴ്ചപ്പാടിനെ പരിശോധിക്കണം. കാരണം, സിലിക്കൺ വാലി ഇന്ന് ഉപയോഗിക്കുന്ന വാക്കാവലി മനസ്സിലാക്കുകയാണെങ്കിൽ, അവർ നാളെ എന്താണ് നിർമ്മിക്കാൻ ശ്രമിക്കുന്നത് എന്ന് നാം തിരിച്ചറിഞ്ഞേക്കാം.
ആർട്ടിഫിഷ്യൽ ഇന്റലിജൻസ് വ്യവസായത്തിന്റെ മുഴുവൻ പാത ഇപ്പോൾ "സ്കെയിലിംഗ് നിയമങ്ങൾ" എന്നറിയപ്പെടുന്ന ഒരു ഏകീകൃത, അന്യായമായ ഡോഗ്മയാൽ നിയന്ത്രിക്കപ്പെടുന്നു.
എഞ്ചിനീയറിംഗ് പദത്തിൽ, സ്കെയിലിംഗ് നിയമങ്ങൾ, കണക്കുകൂട്ടൽ ശക്തി (കമ്പ്യൂട്ട്) വർദ്ധിപ്പിക്കുകയും ഒരു ന്യുറൽ നെറ്റ്വർക്കിൽ നൽകുന്ന ഡാറ്റയുടെ അളവ് വർദ്ധിപ്പിക്കുകയും ചെയ്താൽ, സിസ്റ്റത്തിന്റെ പ്രകടനം പ്രവചനീയമായി, അനിവാര്യമായി മെച്ചപ്പെടുമെന്ന് നിർദ്ദേശിക്കുന്നു. കഴിഞ്ഞ കുറച്ച് വർഷങ്ങളിലായി ഈ സിദ്ധാന്തം അത്ഭുതകരമായി സത്യമായിരുന്നു; അതിരു ലാബുകൾ വലിയ സൂപ്പർകമ്പ്യൂട്ടർ നിർമ്മിക്കുമ്പോൾ, resulting മോഡലുകൾ ശ്രദ്ധേയമായ പുതിയ കഴിവുകൾ പ്രകടിപ്പിക്കുന്നു.
എന്നാൽ, ഈ അനുഭവപരിശോധനയുടെ അടിത്തറയിൽ ഒരു വലിയ തത്ത്വശാസ്ത്രപരമായ ധാരണ ഉണ്ട്. സാങ്കേതിക ലോകം ഈ സ്കെയിലിംഗ് നിയമം യഥാർത്ഥ മനസ്സിലേക്ക് പോകുന്ന പാതയെന്നു വിശ്വസിക്കുന്നു. അവർ വിശ്വസിക്കുന്നു, വസ്തുതാപരമായ വിഭവങ്ങളുടെ ശുദ്ധമായ കണക്കുകൂട്ടൽ വർദ്ധനവിൽ—കൂടുതൽ സിലിക്കൺ, കൂടുതൽ ഡാറ്റ, കൂടുതൽ വൈദ്യുതി—അവശ്യം ഒരു ഗുണപരമായ, ഓന്റോളജിക്കൽ കുതിച്ചുയരാൻ നയിക്കും.
ഇത് പരമാവധി വസ്തുതാപരമായ ധാരണയാണ്: മതിയായ മണൽ കെട്ടിയാൽ, അതിൽ വൈദ്യുതി ഒഴുക്കിയാൽ, ഒടുവിൽ, ഒരു ആത്മാവിന്റെ ലൈറ്റുകൾ അണിയുന്നു.
ഇത് നമ്മെ ഫാ. തോമസ് ഈ സമ്മേളനത്തിനായി വ്യക്തമാക്കാൻ ആവശ്യപ്പെട്ട രണ്ട് പ്രത്യേക പദങ്ങളിലേക്ക് കൊണ്ടുവരുന്നു: ജനറൽ ഇന്റലിജൻസ്, സൂപ്പർഇന്റലിജൻസ്. ഇവ സാങ്കേതിക മാനദണ്ഡങ്ങൾ മാത്രമല്ല; ഇവ സാങ്കേതിക ലോകത്തിന്റെ വിശുദ്ധ ഗ്രാലുകൾ ആണ്.
നാം ഇപ്പോൾ നാരോ AI ഉണ്ട്. ഇത് ചെസ് കളിക്കാനും, പ്രോട്ടീനുകൾ മടക്കാനും, അല്ലെങ്കിൽ മനുഷ്യനേക്കാൾ മികച്ച ടെക്സ്റ്റ് സൃഷ്ടിക്കാനും കഴിയും, എന്നാൽ ഇത് ഒരേ സമയം മൂന്ന് കാര്യങ്ങളും ചെയ്യാൻ കഴിയുന്നില്ല, അല്ലെങ്കിൽ അതിന്റെ പ്രത്യേക മേഖലയ്ക്കു പുറത്തു ചിന്തിക്കാൻ കഴിയുന്നില്ല.
ആർട്ടിഫിഷ്യൽ ജനറൽ ഇന്റലിജൻസ് (AGI) വ്യവസായം വ്യാപകമായി നിർവചിക്കുന്നതുപോലെ, ഒരു ഉയർന്ന സ്വയംഭരണ സിസ്റ്റം എല്ലാ ബുദ്ധിമുട്ടുള്ള, സാമ്പത്തികമായി മൂല്യമുള്ള പ്രവർത്തനങ്ങളിൽ മനുഷ്യന്റെ കഴിവുകളെ പൊരുത്തപ്പെടുത്തുകയോ അതിനേക്കാൾ മികവുറ്റതായിരിക്കുകയോ ചെയ്യുന്നതാണ്.
ഒരു AGI ഒരു നിയമ ബ്രീഫ് ഒരു മുതിർന്ന പങ്കാളിയെന്ന പോലെ എഴുതാൻ, ഒരു സോഫ്റ്റ്വെയർ കോഡ് ചെയ്യാൻ ഒരു ലീഡ് എഞ്ചിനീയറെന്ന പോലെ, ഒരു പോസ്റ്റ്-ഡോക്ടറൽ സ്കോളറെന്ന പോലെ ശാസ്ത്രീയ ഗവേഷണം സംയോജിപ്പിക്കാൻ കഴിയുന്ന ഒരു സിസ്റ്റമാണ്—എല്ലാം ഒരു ഏകീകൃത മോഡലിനുള്ളിൽ.
എന്നാൽ, പ്രധാന AI ലാബുകളുടെ തലവന്മാർ AGI എങ്ങനെ കാണപ്പെടുന്നു എന്നതിൽ പൂർണ്ണമായും സമ്മതിക്കുന്നില്ല. ഓപ്പൺഎഐയുടെ CEO സാം ആൽട്ട്മാൻ, അത്这样描述 ഒരു സിസ്റ്റം സങ്കീർണ്ണമായ, ക്രോസ്-ഡൊമെയിൻ പ്രോജക്ടുകൾ ആരംഭത്തിൽ മുതൽ അവസാനം വരെ കൈകാര്യം ചെയ്യാൻ കഴിയുന്നവനാണ്, എന്നാൽ AGI യെ ഒരു അന്തിമ ലക്ഷ്യമായി കാണുന്നതിന് പകരം, ബുദ്ധിമുട്ടിന്റെ തുടർച്ചയായ ഒരു വക്രത്തിൽ ഒരു പോയിന്റ് മാത്രമായി കാണുന്നു.
ഡാരിയോ അമോദെയ്, ആൻട്രോപിക് CEO, AGI യെ这样设想 ഒരു ഏകീകൃത മനുഷ്യ സമാനമായതിനെക്കാൾ "ഡാറ്റാസെന്ററിൽ പ്രതിഭകളുടെ ഒരു രാജ്യം" എന്ന രീതിയിൽ—മനുഷ്യരുടെ സമാഹിത ബുദ്ധിയെ സമാന്തരമായി പ്രവർത്തിക്കുന്ന യന്ത്രങ്ങൾ.
ഏതെങ്കിലും തത്ത്വശാസ്ത്രപരമായി വെളിപ്പെടുത്തുന്ന നിർവചനത്തിൽ ഡെമിസ് ഹാസ്സബിസ്, ഗൂഗിൾ ഡീപ്മൈൻ CEO, നിന്നുള്ളത്. അദ്ദേഹം വാദിക്കുന്നു മനുഷ്യ മസ്തിഷ്കങ്ങൾ അടിസ്ഥാനപരമായി ഏകദേശം ജൈവ കമ്പ്യൂട്ടറുകളാണ്, AGI യെ "ട്യൂറിംഗ് മെഷീൻ" എന്ന അനാലോഗിയിൽ നിർവചിക്കുന്നു. കമ്പ്യൂട്ടർ ശാസ്ത്രത്തിൽ, ഒരു ട്യൂറിംഗ് മെഷീൻ—ഈ മേഖലയിലെ അടിസ്ഥാന pioneeri ആയ ആലൻ ട്യൂറിംഗ് നാമകരണം ചെയ്ത—എന്തെങ്കിലും ആൽഗോരിതം അനുകരിക്കാൻ കഴിയുന്ന ഒരു സിദ്ധാന്തപരമായ ആർക്കിടെക്ചർ ആണ്. ഹാസ്സബിസ് വാദിക്കുന്നു, ഒരു യഥാർത്ഥ AGI ഒരു പൊതുവായ സിസ്റ്റമായിരിക്കണം, വിശ്വത്തിലെ ഏതെങ്കിലും കണക്കുകൂട്ടാവുന്ന കാര്യങ്ങൾ പഠിക്കാൻ കഴിയുന്ന, മതിയായ സമയം, മെമ്മറി, ഡാറ്റ എന്നിവ നൽകുന്നതിന്.
എന്നാൽ AGI വെറും ഒരു കടന്നുപോയി. അന്തിമ ലക്ഷ്യം ആർട്ടിഫിഷ്യൽ സൂപ്പർഇന്റലിജൻസ് (ASI) ആണ്.
AGI യുടെ പോലെ, ASI യുടെ വ്യാഖ്യാനം സിലിക്കൺ വാലിയിൽ ആരെ ചോദിച്ചാലും വ്യത്യസ്തമാണ്. അടിസ്ഥാനപരമായ നിർവചനമാണ്, ഏറ്റവും ബുദ്ധിമുട്ടുള്ള മനുഷ്യന്റെ ബുദ്ധിമുട്ടിനെ വളരെക്കൂടി മറികടക്കുന്ന ഒരു സിസ്റ്റം, praticamente എല്ലാ പ്രവർത്തനങ്ങളിലും. എന്നാൽ മറ്റുള്ളവർ കൂടുതൽ അകലെയേക്കും പോകുന്നു. എലോൺ മസ്കും വിവിധ എക്സിസ്റ്റൻഷ്യൽ റിസ്ക് ഗവേഷകരും സൂപ്പർഇന്റലിജൻ ഒരു സിസ്റ്റം മാത്രമല്ല, ഏറ്റവും ബുദ്ധിമുട്ടുള്ള വ്യക്തിയെ മറികടക്കുന്നതും, എന്നാൽ എല്ലാ മനുഷ്യരെയും
പ്രായോഗികമായി എല്ലാ ബുദ്ധിമുട്ടുള്ള പ്രവർത്തനങ്ങളിൽ ആകെക്കൂടി മറികടക്കുന്നതും. ഇത് പ്രോസസ്സിംഗ് ശക്തിയും ചിന്തനശേഷിയും അത്രക്കൂറ്റൻ ആകുന്നു, ഇത് മുഴുവൻ മനുഷ്യരാശിയുടെ സംയുക്ത ബുദ്ധിമുട്ടിന്റെ ഔട്ട്പുട്ടിനെ മറികടക്കുന്നു—'റെഹോബോം' എന്ന സിസ്റ്റത്തിന്റെ യാഥാർത്ഥ്യം, ഒരു കേന്ദ്രിതമായ, സദാ ബോധമുള്ള എഞ്ചിൻ, ഇനത്തിന്റെ വിധിയെ നിയന്ത്രിക്കുന്നു.
മനുഷ്യ-നിലവാര AGI യിൽ നിന്ന് ദൈവസമാന ASI യിലേക്ക് കടക്കാൻ വ്യവസായം എങ്ങനെ പ്രതീക്ഷിക്കുന്നു?
"റികർസീവ് സെൽഫ്-ഇംപ്രൂവ്മെന്റ്" എന്നറിയപ്പെടുന്ന ഒരു ആശയത്തിലൂടെ.
എന്നാൽ ഇവിടെ ഒരു പ്രധാന വ്യത്യാസം ചെയ്യണം: ഒരു AI യെ പൂർണ്ണ AGI ആകേണ്ടതില്ല, ഇത് പുനരാവിഷ്കരിക്കാൻ തുടങ്ങാൻ. വാസ്തവത്തിൽ, നാം ഇതിനകം തന്നെ പ്രാഥമിക, നാരോ രൂപങ്ങൾ കാണുന്നു. ഡീപ്മൈൻന്റെ ആൽഫഗോ സീറോ പോലുള്ള നാരോ സിസ്റ്റങ്ങൾ, സ്വയം-വിദ്യാഭ്യാസം ചെയ്യുന്നതിനായി, അവരുടെ സ്വന്തം സിന്തറ്റിക് ഡാറ്റയെ സൃഷ്ടിച്ച്, സ്വയം-കളിക്കുന്ന മില്യൺ കളികൾ കളിച്ച്, സൂപ്പർഹ്യുമൻ കഴിവുകൾ നേടുകയും ചെയ്തു. ഇന്ന്, അതിരു ഭാഷാ മോഡലുകൾ, അടുത്ത തലമുറയുടെ മോഡലുകൾക്കായുള്ള പരിശീലന ഡാറ്റയെ സൃഷ്ടിക്കാൻ, ഫിൽട്ടർ ചെയ്യാൻ, ഗ്രേഡ് ചെയ്യാൻ increasingly ഉപയോഗിക്കപ്പെടുന്നു. യന്ത്രങ്ങൾ ഇതിനകം തന്നെ അവയെ നിർമ്മിക്കാൻ സഹായിക്കുന്നു.
എന്നാൽ, വ്യവസായം വിശ്വസിക്കുന്നു, ഒരു സിസ്റ്റം പൊതുവായ ബുദ്ധിമുട്ടിന്റെ തീവ്രതയിൽ എത്തുമ്പോൾ, ഈ സ്വയം-മികച്ചമാക്കുന്ന ചക്രം അതിന്റെ നിലവിലെ അതിരുകൾ തകർക്കും, "ബുദ്ധിമുട്ടിന്റെ പൊട്ടിത്തെറിക്കൽ" സൃഷ്ടിക്കും. ഈ ആധുനിക റോഡ് മാപ്പ് മനസ്സിലാക്കാൻ, നാം ഓപ്പൺഎഐയുടെ സൂപ്പർഅലൈൻമെന്റ് ടീമിലെ മുൻ ഗവേഷകൻ ലിയോപ്പോൾഡ് അഷ്ഛൻബ്രെണ്ണറിനെ നോക്കണം. അഷ്ഛൻബ്രെണ്ണർ അടുത്തിടെ ഒരു വളരെ പ്രഭാവശാലിയായ treatise
സിലിക്കൺ വാലിക്ക് ഈ പ്രത്യേക പാതയെ കോഡിഫൈ ചെയ്തതാണ്. AGI പ്രവർത്തനക്ഷമമായ "ഓട്ടോമേറ്റഡ് AI ഗവേഷകൻ" ആകാൻ കഴിയും എന്നത് സത്യമായും തിരിഞ്ഞു പോയി. AI അതിനെ നിർമ്മിച്ച മനുഷ്യ എഞ്ചിനീയർമാരുടെ ജോലി ചെയ്യാൻ കഴിയുന്ന നിമിഷത്തിൽ, ജൈവ bottleneck സ്ഥിരമായി സമവായത്തിൽ നിന്നു നീക്കം ചെയ്യപ്പെടുന്നു.
ഞങ്ങൾ വിജയകരമായി ഈ ഓട്ടോമേറ്റഡ് AI ഗവേഷകൻ വിനിയോഗിച്ചാൽ, അതിന് ആദ്യത്തെ ജോലി എന്താണ്?
അത് ഒരു കുറച്ച് കൂടുതൽ ബുദ്ധിമുട്ടുള്ള AI യുടെ കോഡ് ഗവേഷണം ചെയ്യാനും എഴുതാനും ആവശ്യപ്പെടും. ഇത് ഒരു വലിയ കമ്പ്യൂട്ടർ ക്ലസ്റ്ററിന്റെ വേഗത്തിൽ പ്രവർത്തിക്കുന്നതിനാൽ, മനുഷ്യ എഞ്ചിനീയർ ടീമിന് വർഷങ്ങൾ എടുക്കുന്ന കാര്യങ്ങൾ ദിവസങ്ങളിൽ നേടുന്നു. പിന്നീട്, ആ പുതിയ, കൂടുതൽ ബുദ്ധിമുട്ടുള്ള AI, അതിന്റെ ഉയർന്ന ബുദ്ധിമുട്ടിനെ ഉപയോഗിച്ച്, കൂടുതൽ ബുദ്ധിമുട്ടുള്ള AI യുടെ കോഡ് എഴുതുന്നു, ഇങ്ങനെ തുടരുന്നു.
ഈ ഓട്ടോമേറ്റഡ് ഫീഡ്ബാക്ക് ലൂപ്പ് ബുദ്ധിമുട്ടിന്റെ പൊട്ടിത്തെറിക്കൽ ആണ്. അഷ്ഛൻബ്രെണ്ണറിന്റെ റോഡ് മാപ്പ് 2027-ൽ തുടക്ക AGI നിർമ്മിക്കുമെന്ന് പ്രവചിക്കുന്നു. അവിടെ നിന്ന്, സിദ്ധാന്തം മുന്നേറ്റത്തിന്റെ നിരക്ക് ആഴത്തിൽ പോകുമെന്ന് നിർദ്ദേശിക്കുന്നു, മനുഷ്യന്റെ മനസ്സിനെ സ്ഥിരമായി വിട്ടുവീഴ്ച ചെയ്യുകയും 2030-ൽ സൂപ്പർഇന്റലിജൻസ് നേടുകയും ചെയ്യുന്നു.
ഈ ആശയങ്ങൾ—സ്കെയിലിംഗ് നിയമങ്ങൾ, AGI, ASI, ബുദ്ധിമുട്ടിന്റെ പൊട്ടിത്തെറിക്കൽ—നിങ്ങൾക്ക് മനസ്സിലായാൽ, നാം ഇനി വെറും സോഫ്റ്റ്വെയർ എഞ്ചിനീയറിങ്ങിനെക്കുറിച്ചല്ല സംസാരിക്കുന്നത്. നാം ഒരു secular എസ്കാറ്റോളജിയെക്കുറിച്ചാണ് സംസാരിക്കുന്നത്.
സിലിക്കൺ വാലി പലപ്പോഴും ഒരു ശക്തമായ secular, യാഥാർത്ഥ്യവാദി സംസ്കാരമായി വിശേഷിപ്പിക്കുന്നു. എന്നാൽ യാഥാർത്ഥ്യത്തിൽ, ഈ മൈല്സ്റ്റോണുകൾ നേടാനുള്ള ശ്രമം ഒരു മതമായി പ്രവർത്തിക്കുന്നു. അതിന് സ്വന്തം ഡോഗ്മ (സ്കെയിലിംഗ് നിയമങ്ങൾ), സ്വന്തം പ്രവചനങ്ങൾ (ബുദ്ധിമുട്ടിന്റെ പൊട്ടിത്തെറിക്കൽ), സ്വന്തം എസ്കാറ്റോൺ (സൂപ്പർഇന്റലിജൻസ്) ഉണ്ട്.
കത്തോലിക്കാ ഗവേഷകരായ നിങ്ങൾ, ഈ കാഴ്ചപ്പാടിനെ എന്താണെന്ന് തിരിച്ചറിയണം. സാങ്കേതിക ലോകം നിങ്ങളുടെ വാക്കാവലി കടത്തുന്നു, വെറും സോഫ്റ്റ്വെയർ വിൽക്കാൻ മാത്രം അല്ല, ഒരു ഡിജിറ്റൽ ദൈവം നിർമ്മിക്കാൻ.
VII. സമാപനം: ഒരു സാദ്ധ്യതയുടെ ഉപകരണം?
അച്യുതന്മാർ, അധ്യാപകർ, സുഹൃത്തുക്കൾ.
ഞങ്ങൾ എമ്പഡിങ്ങുകളുടെ ഉയർന്ന-അളവിലുള്ള നക്ഷത്രങ്ങൾ കടന്നുപോയി. ഞങ്ങൾ റൈന്ഫോഴ്സ്മെന്റ് ലേണിങ്ങിന്റെ സ്ഥിതിവിവരക്കണക്കുകൾ നോക്കിയിട്ടുണ്ട്. കൂടാതെ, സിലിക്കോൺ വാലിയുടെ അവസാനം സ്വപ്നങ്ങൾ പരിശോധിച്ചിട്ടുമുണ്ട്. മനുഷ്യവൽക്കരണ ഉപമകൾ നീക്കം ചെയ്ത്, സിലിക്കോൺ, വൈദ്യുതി, ഗണിതശാസ്ത്രം എന്നിവയെ വെളിപ്പെടുത്തിയിട്ടുണ്ട്.
ഇത് ചെയ്തതോടെ, ഈ സമ്മേളനം ഉന്നയിച്ച അടിസ്ഥാന പ്രശ്നത്തിലേക്ക് നാം സമീപിക്കാൻ തുടങ്ങാം: കൃത്രിമ ബുദ്ധി 'സദ്ഗുണത്തിനുള്ള ഉപകരണം' ആകാമോ? ഇന്ന് സംസാരിക്കാൻ ആദ്യത്തെ ആളായ ഞാൻ, തീർച്ചയായും അന്തിമ വാക്ക് നൽകാൻ അവകാശപ്പെടുന്നില്ല. എന്നാൽ ഞാൻ ഒരു ആരംഭ പ്രസ്ഥാവന നൽകും: അതെ. എന്നാൽ, ഇത് ഒരു കർശനമായ നിബന്ധനയുള്ള അതെ.
കൃത്രിമ ബുദ്ധി സദ്ഗുണത്തിനുള്ള ഉപകരണം ആകാൻ കഴിയുന്നത്, ഞങ്ങൾ അതിനെ കർശനമായി ഒരു ഉപകരണം എന്ന നിലയിൽ പരിഗണിക്കാനുള്ള ശുദ്ധത കൈവശമുണ്ടെങ്കിൽ മാത്രമാണ്.
ശില്പിയുടെ ഉപമയെ പരിഗണിക്കുക. ഒരു ഹാമർ സദ്ഗുണം കൈവശമില്ല; carpenter-ന് സദ്ഗുണം ഉണ്ട്. മൈക്കലാഞ്ചലോയുടെ കൈകളിൽ ഒരു ചിസൽ അത്യുഗ്രൻ സുന്ദര്യത്തിന്റെ ഉപകരണം ആണ്, എന്നാൽ ചിസൽ തന്നെ താപനില, സൂക്ഷ്മത, അല്ലെങ്കിൽ നീതിയുള്ളതല്ല. അതിന് ഏതെങ്കിലും നൈതിക മൂല്യം ഇല്ല.
ഇതേ രീതിയിൽ, ഒരു ആൽഗോരിതം സദ്ഗുണം കൈവശമാക്കാൻ കഴിയില്ല. AI മനുഷ്യന്റെ കഴിവിനെ അത്യുഗ്രനമായി വർദ്ധിപ്പിക്കാൻ കഴിയും—ഇത് മെഡിക്കൽ ഗവേഷണം വേഗത്തിലാക്കാൻ, ഭരണകൂടം എളുപ്പമാക്കാൻ, മനുഷ്യന്റെ അറിവിന്റെ സമാഹാരത്തെ ക്രമീകരിക്കാൻ കഴിയും. എന്നാൽ സദ്ഗുണത്തിന്റെ യഥാർത്ഥ വളർച്ച ഒരു മനുഷ്യന്റെ ശ്രമമാണ്.
സദ്ഗുണം നല്ലത തിരഞ്ഞെടുക്കാനുള്ള ശീലമാണ്. സത്യത്തെ ഗ്രഹിക്കാൻ ഒരു ബുദ്ധി, അതിനെ തിരഞ്ഞെടുക്കാൻ ഒരു ഇച്ഛാശക്തി, അതിലൂടെ പൂർണ്ണമാകാൻ ഒരു ആത്മാവ് ആവശ്യമാണ്. ഒരു യന്ത്രം സ്ഥിതിവിവരക്കണക്കിന്റെ പ്രതിഫലന ഫംഗ്ഷൻ മെച്ചപ്പെടുത്തുന്നത് ഈ കാര്യങ്ങളിൽ ഒന്നും ചെയ്യുന്നില്ല.
ഞങ്ങളുടെ നൈതിക ഏജൻസിയെ ഗണിത സമവായത്തിലേക്ക് പുറത്താക്കാൻ കഴിയില്ല. ജീവശൂന്യമായ യന്ത്രങ്ങളെ നമ്മുടെ നൈതിക സമാനങ്ങളായി തെറ്റിദ്ധരിപ്പിച്ചാൽ, ഞങ്ങൾ നമ്മുടെ സ്വന്തം നൈതിക വികസനത്തിന് മുഴുവൻ ഉത്തരവാദിത്വം ഏറ്റെടുക്കാൻ കഴിയില്ല.
ഇത് എന്നെ ഇന്ന് നിങ്ങളോട് സംസാരിക്കാൻ നയിക്കുന്നു. കത്തോലിക്കാ സാങ്കേതികവിദ്യയുടെ നിർമ്മാതാവായ ഞാൻ അക്കാദമിയിലേക്ക് നോക്കുന്നു. കാരണം കത്തോലിക്കാ അക്കാദമിക്കാർ ചരിത്രപരമായ അർത്ഥത്തിന്റെ സംരക്ഷകർ ആണ്.
ഇരുപത് ആയിരം വർഷങ്ങളായി, കത്തോലിക്കാ ബുദ്ധിമുട്ടിന്റെ പരമ്പരാഗതം മനുഷ്യന്റെ സ്വഭാവത്തെ കർശനമായി നിർവചിച്ചിട്ടുണ്ട്. നിങ്ങൾ ബുദ്ധി, ഇച്ഛാശക്തി, കാരണം, തിരഞ്ഞെടുപ്പ്, ആത്മാവ് എന്നിവയെന്ന വാക്കുകളുടെ സംരക്ഷകർ ആണ്. ഇന്ന്, AI വ്യവസായം ആExact വാക്കുകൾ വായിക്കുന്നു. അവർ മനുഷ്യൻ ആകാൻ എന്താണ് എന്നതിന്റെ പൊതുവായ മനസ്സിലാക്കലിനെ തകർത്ത് ഒരു ഗൗരവമായ അർത്ഥവ്യത്യാസത്തിൽ ഏർപ്പെടുന്നു.
അക്കാദമിക്ക് AI പരിസ്ഥിതിയിൽ കർശനമായ ഓന്റോളജിക്കൽ ഫ്രെയിംവർക്കുകൾ ഉൾപ്പെടുത്താനുള്ള കടമ ഉണ്ട്.
എന്നാൽ നാം ഇത് പ്രായോഗികമായി എങ്ങനെ ചെയ്യാം?
ഞങ്ങൾ സത്യസന്ധമായിരിക്കണം: സിലിക്കോൺ വാലിയിലെ ഫ്രണ്ടിയർ ലാബുകളെ ലോബി ചെയ്യുകയോ, വ്യാപകമായ നിയമനിർമ്മാണത്തിനായി സർക്കാർ അപേക്ഷിക്കുകയോ ചെയ്താൽ, പരിമിതമായ ഫലങ്ങൾ ലഭിക്കുമെന്ന് പ്രതീക്ഷിക്കാം. സാങ്കേതിക വ്യവസായം വളരെ വേഗത്തിൽ മുന്നേറുന്നു, സർക്കാർ വളരെ മന്ദഗതിയിലാണ്. യഥാർത്ഥ മാറ്റത്തിന് പൗരസമൂഹത്തിന്റെ പങ്കാളിത്തവും പൊതുവായ ബോധവൽക്കരണത്തിൽ വലിയ മാറ്റവും ആവശ്യമാണ്.
നിങ്ങൾ, ഗവേഷകരായി, ഈ സംഭാഷണം സജീവമായി രൂപപ്പെടുത്താൻ എങ്ങനെ ചെയ്യാമെന്ന് ഇവിടെ ഉണ്ട്:
- പാഠ്യപദ്ധതി പുനഃസ്ഥാപിക്കുക: STEM-നും humanities-നും ഇടയിൽ അകലം അടയ്ക്കണം. തോമിസ്റ്റിക് നൈതികത പഠിക്കാൻ ആവശ്യമായ കമ്പ്യൂട്ടർ ശാസ്ത്ര വിദ്യാർത്ഥികൾക്കും, അടിസ്ഥാന മെഷീൻ ലേണിങ്ങും സ്ഥിതിവിവരക്കണക്കുകളും മനസ്സിലാക്കാൻ ആവശ്യമായ തത്ത്വശാസ്ത്രവും തത്വശാസ്ത്ര വിദ്യാർത്ഥികൾക്കും ആവശ്യമുണ്ട്. മനുഷ്യന്റെ സ്വഭാവത്തിന്റെ യഥാർത്ഥ ഓന്റോളജിയോടെ നിർമ്മിക്കാൻ കത്തോലിക്കാ എഞ്ചിനീയർമാരുടെ അടുത്ത തലമുറയെ പരിശീലിപ്പിക്കുക.
- പൊതുവായ വേദിക്ക് വിവർത്തനം ചെയ്യുക: ഈ ആഴത്തിലുള്ള തത്ത്വശാസ്ത്രപരമായ വ്യക്തത അക്കാദമിക് ജേർണലുകളുടെ വാതിലുകൾക്കുള്ളിൽ അടച്ചുവച്ചിരിക്കരുത്. പൊതുവിന് അർത്ഥവത്തായതിന്റെ ആവശ്യം ഉണ്ട്. secular പത്രങ്ങൾക്ക് ഓപ്പിൻ-എഡുകൾ എഴുതുക. Substack ന്യൂസ്ലറ്ററുകൾ ആരംഭിക്കുക. ജനപ്രിയ പോഡ്കാസ്റ്റുകളിൽ പോകുക. മാധ്യമങ്ങൾ "ജാഗ്രതയുള്ള" AI-യെക്കുറിച്ചുള്ള ഒരു സൻസേഷനലിസ്റ്റ് തലക്കെട്ട് പ്രസിദ്ധീകരിക്കുമ്പോൾ, കത്തോലിക്കാ ഗവേഷകർ ഉടൻ പൊതുവായ വേദിയിൽ തിരിച്ചടി നൽകേണ്ടതുണ്ട്.
- പാരിഷുകളും സ്കൂളുകളും സജ്ജമാക്കുക: കത്തോലിക്കാ വിശ്വാസിയുടെ ഇടയിൽ ഈ ഉപകരണങ്ങളെക്കുറിച്ച് ആഴത്തിലുള്ള സാംസ്കാരിക ആശങ്ക അനുഭവപ്പെടുന്നു. മാതാപിതാക്കൾ, പുരോഹിതന്മാർ, ഹൈസ്കൂൾ അധ്യാപകർ എന്നിവർക്കായി വളരെ ആക്സസിബിള് ഫ്രെയിംവർക്കുകൾ സൃഷ്ടിക്കാൻ അക്കാദമിക്കാർക്ക് ആവശ്യമുണ്ട്. AI-നെ ഒരു റഫറൻസ് ഉപകരണം—ഒരു ഡിജിറ്റൽ എൻസൈക്ലോപ്പീഡിയ—എന്ന നിലയിൽ എങ്ങനെ പരിഗണിക്കണമെന്ന് കുട്ടികളെ പ്രാരംഭത്തിൽ പഠിപ്പിക്കണം, ഒരു സുഹൃത്ത്, ഏജന്റ്, അല്ലെങ്കിൽ നൈതിക അധികാരമായി അല്ല.
- അന്തർവിദ്യാഭ്യാസ ഫോറങ്ങൾ സംഘടിപ്പിക്കുക: Angelicum പോലുള്ള സ്ഥാപനങ്ങളുടെ കൂടിച്ചേരുന്ന ശക്തി ഉപയോഗിച്ച് യാഥാർത്ഥ്യ AI നിർമ്മാതാക്കളെ നൈതിക തത്ത്വശാസ്ത്രജ്ഞന്മാരുമായി ഒരുമിച്ച് കൊണ്ടുവരുക. ഭാഷാപരമായ കൂട്ടിയിടി നേരിൽ സംഭവിക്കാൻ നിർബന്ധിക്കുക.
ഇത് നമ്മുടെ അവസാന പ്രവർത്തന വിളി ആയിരിക്കട്ടെ.
secular ലോകത്തിന്റെ 'ജാഗ്രതയുള്ള' യന്ത്രങ്ങളെക്കുറിച്ചുള്ള അപോകലിപ്റ്റിക് ഭയം ജാഗ്രതയുള്ളതിന്റെ കാരണം അല്ല; മറിച്ച്, നിങ്ങളുടെ ബുദ്ധിമുട്ടിന്റെ നേതൃത്തിന് ഒരു ആകുലമായ വിളിയാണ്. AI നിർമ്മാതാക്കളുടെ യഥാർത്ഥ ഭാഷയെ മനസ്സിലാക്കുന്നതിലൂടെ, സഭ പൊതുവായ വേദിയിൽ ധൈര്യത്തോടെ കടക്കാൻ കഴിയും. നിങ്ങൾ മനുഷ്യൻ ആകാൻ എന്താണ് എന്നതിന്റെ അശ്രദ്ധതയുള്ള സത്യത്തിൽ പൊതുവായ സംഭാഷണത്തെ ആധാരമാക്കാൻ കഴിയും. കൂടാതെ, AI യഥാർത്ഥ മനുഷ്യന്റെ സമൃദ്ധിയിലേക്ക് നയിക്കപ്പെടുന്നുവെന്ന് ഉറപ്പാക്കാൻ കഴിയും.
ഈ വ്യക്തതയോടെ, നിങ്ങൾ ഭ്രാന്തത്തെ തകർത്ത് മാറ്റാൻ കഴിയും. നിങ്ങൾ മനുഷ്യൻ ശിൽപിയാണെന്ന് ഉറപ്പാക്കാൻ കഴിയും, യന്ത്രം ചിസലായിരിക്കണം, എപ്പോഴും ദൈവത്തിന്റെ മഹിമയിലേക്ക് ഓർഡർ ചെയ്തിരിക്കുന്നു.
നന്ദി.