Magisterium AI

Սեմանտիկ Դրիվ: Դեմիստիֆիկացնելով AI Կառուցողների Լեզուն

Արդյոք արհեստական բանականությունը կարող է լինել արժանիքի գործիք:

2026 թվականի մարտի 5-ին Մեթյու Հարվի Սանդերսը, Longbeard ընկերության գլխավոր տնօրենը, իր ելույթը ներկայացրեց «Սեմանտիկ Դրիվտ. Արհեստական բանականության ստեղծողների լեզվի պարզեցում» թեմայով Թոմիստական ինստիտուտում:Արհեստական բանականություն. Արժանիքի գործիք:միջոցառումը տեղի ունեցավ Սուրբ Թոմաս Աքվինացու Պոնտիֆիկալ համալսարանում (Անջելիկում) Ռոմայում:

Այս ելույթում նա քննադատում է Սիլիկոնային հովտի մշակողների կողմից մեքենայական ուսուցման նկարագրության համար օգտագործվող մոլորեցնող, մարդկային բառապաշարը: Նա պնդում է, որ արհեստական բանականությունը ճիշտ օգտագործելու համար մենք պետք է վերականգնենք խիստ կաթոլիկ օնտոլոգիա և վերաբերվենք այս համակարգերին բացառապես որպես մեխանիկական գործիքներ, այլ ոչ թե բարոյական գործիչներ:


I. Ներածություն. Սեմանտիկ Դրիվտ և հանրային հրապարակ

Հայրեր, հարգարժան դասախոսներ և Անջելիկումի հյուրեր, շնորհակալություն Թոմիստական ինստիտուտին այս քննարկումը կազմակերպելու համար:

Նոր դար մտնելով, թողնելով տեղեկատվության դարի հաստատուն վստահությունները՝ մտնում ենք բանականության դարի լայն, անծանոթ տիեզերք, մենք բախվում ենք խոր նավարկման մարտահրավերի: Նախքան այս կոնֆերանսի կենտրոնական հարցին պատասխանելը՝ արդյոք արհեստական բանականությունը իսկապես կարող է ծառայել որպես «արժանիքի գործիք», մենք պետք է առաջին հերթին դիմակայենք մարտահրավերին, որը կապված չէ ծրագրային ինժեներիայի, այլ բառապաշարի հետ:

Մեր ժամանակակից անհանգստության կենտրոնում արհեստական բանականության շուրջ կա խոր լեզվաբառարանային բախում: Սիլիկոնային հովտի այս համակարգերի ինժեներներն ու ճարտարապետները կատարում են մաթեմատիկականRemarkable feats: Սակայն, այս մաթեմատիկական և վիճակագրական գործընթացները նկարագրելու համար նրանք վերցրել են սուրբ, խոր փիլիսոփայական բառապաշարը մարդկային ներքինության մասին: Նրանք ասում են, որ իրենց համակարգերը «մտածում», «հիմնավորում» և «գիտեն»: Նրանք խոսում են ալգորիթմների մասին, որոնք «սովորում», «ցանկանում» և «ընտրում» են:

Այն, ինչ մենք ականատես ենք լինում, սեմանտիկ դիվերսիա է: Մենք վերցնում ենք հոգու հարուստ, օնտոլոգիական բառապաշարը և դնում այն բարդ գծային ալգեբրայի, վիճակագրական հավանականության և բարձր չափսերի երկրաչափության վրա: Սա ժամանակակից ալքիմիա է՝ հաշվարկային քաշերը մտքի մոլորության վերածելու փորձ:

Այս լեզվաբառարանային անճշտությունը խոր և անմիջական ազդեցություն ունի հանրության վրա: Այս տերմինների սխալ հասկացումը անխուսափելիորեն հանգեցնում է սխալ վստահության:

Ես սա firsthand տեսնում եմ մեր Longbeard ընկերությունում. օգտվողները հաճախ մոտենում են արհեստական բանականությանը ծանր conscience-ներով, վերաբերվելով տեքստի ստեղծման գործիքին, կարծես այն հոգևոր ղեկավար լիներ, որը կարող է համակրանք:

Բացի այդ, այս սեմանտիկ շփոթությունը սնուցում է մշակութային անհանգստությունը, առաջացնելով ապոկալիպտիկ վախեր մրցակից, «գիտակից» գերագույն բանականություններից:

Սակայն ամենավտանգավորն այն է, որ դա ստեղծում է խեղաթյուրված ընկալում այն բանի, թե ինչ է նշանակում մարդ լինել: Եթե մենք ընդունենք, որ մեքենան «հիմնավորում» կամ «ստեղծում» է այնպես, ինչպես մարդը, մենք խոր վտանգի տակ ենք դնում մարդկային անձը՝ պարզապես կենսաբանական մեքենայի՝ մսի և սինապսների կլաստերի վերածելու ռիսկը, որը սպասում է օպտիմիզացման:

Այսպիսով, ես գալիս եմ մեր քննարկման հիմնական թեզին. պատասխանելու համար, արդյոք արհեստական բանականությունը կարող է լինել «արժանիքի գործիք», մենք նախ պետք է պարզենք դրա լեզուն: Գործիքը կարող է ծառայել միայն բարոյականին, երբ այն ճիշտ է ընկալվում: Մենք չենք կարող օգտագործել մեքենաները որպես մեր արժանիքի ճիշտ գործիքներ, երբ սխալմամբ նրանց բարոյական գործիչներ ենք վերագրում:

Գործիքը արժանիք վերագրելը նշանակում է, որ մենք մնում ենք անտեսանելի դեպի փայտագործը:

Այս տեխնոլոգիան իսկապես մկրտելու և այն ուղղելու համար մարդկային繁荣, մենք պետք է հեռացնենք սեմանտիկ մոլորությունները և սթափ նայենք ներքևի ճարտարապետությանը:


II. Մոլորության ճարտարապետությունը. Հիմնական մեխանիկա

Ժամանակակից ստեղծող արհեստական բանականության համակարգը կարծես խոսում է, հիմնավորում և engages մեզ երկխոսության մեջ, բայց այս ինտերֆեյսի տակ ընկած հիմքը ամբողջությամբ կառուցված է մաթեմատիկայից, ոչ թե մետաֆիզիկայից:

Եկեք սկսենք վեկտորներից և ներմուծումներից, որոնք ծառայում են որպես Մեծ լեզվաբառարանների իրական հիմք: Երբ դուք խոսում եք մի գործընկեր գիտնականի հետ «արդարության» կամ «հոգու» մասին, նրանք ձեր բառերի իմաստը ընկալում են իրականության ընդհանուր grasp-ով՝ ապրած, մարմնավորված մարդկային փորձով: Երբ դուք AI-ին հրահանգ եք տալիս, համակարգը նման բան չի անում: Փոխարենը, AI-ն մարդկային լեզուն թարգմանում է մաթեմատիկական կոորդինատների մեջ բարձր չափսերի տարածքում:

Հստակ ասած, «վեկտորը» պարզապես թվերի ցանկ է, որը օգտագործվում է ինչ-որ բան նկարագրելու համար: Կարծեք նկարագրում եք մի խնձոր ոչ թե բառերով, այլ մի թվերի ցանկով. 9 քաղց sweetness-ի համար, 8 կարմրության համար և 2 մետաղական կռունկի համար: Այդ հատուկ թվերի ցանկը՝ [9, 8, 2]՝ վեկտոր է: AI համակարգում, յուրաքանչյուր բառը՝ կամ բառի մի մասը, թարգմանվում է մեծ վեկտորի, հաճախ հազարավոր թվերի երկարությամբ: Բայց AI-ն չի գնահատում բառերը ֆիզիկական հատկանիշների կամ բառարանային սահմանումների հիման վրա: Փոխարենը, այն ստեղծում է այս թվերը բացառապես վիճակագրության հիման վրա՝ սկանելով միլիարդավոր գրքեր և հոդվածներ՝ հաշվելու համար, թե որքան հաճախ բառերը միմյանց կողքին են հայտնվում:

Երբ AI-ն ավարտում է այս մեծ թվերի ցանկի հաշվարկը մեկ բառի համար, այդ վեկտորը դառնում է «ներմուծում»՝ մեծ թվային տարածքում մշտական մաթեմատիկական կոորդինատ:

Եթե «խնձոր» և «պայ» բառերը հաճախ հայտնվում են նույն նախադասություններում ինտերնետում, նրանց թվերի ցանկերը շատ նման կլինեն, տեղադրելով դրանք մաթեմատիկապես միմյանց մոտ քարտեզի վրա: «Խնձոր» և «կարբյուրատոր» բառերը, որոնք հազվադեպ հանդիպում են, ստանում են շատ տարբեր թվեր և տեղադրվում են միլիոնավոր մղոն հեռավորության վրա: Այս բազմաչափ քարտեզում AI-ն չի քարտեզավորում իմաստը; այն քարտեզավորում է մարդկային լեզվի վիճակագրական մոտեցումը:

Այս ճարտարապետության չափը ճիշտ graspելու համար կարելի է ուսումնասիրել վեկտորային քարտեզը Magisterium AI-ում: Այստեղ, կաթոլիկ դոկտրինի և ավանդույթի ամբողջությունը վերածվել է ներմուծումների: Այս ինտերակտիվ 3D վիզուալիզացիան թույլ է տալիս ձեզ փորձել Եկեղեցու մտավոր պատմությունը ոչ թե հարթ հաշվետվության, այլ մեծ թվային տիեզերքի տեսքով: Դրա միջով նավարկելը նման է իրական տարածքում ռակետային նավի վարելուն, անցնելով կապված աստվածաբանական գաղափարների խիտ գալակտիկաների կողքով և անցնելով մեծ, դատարկ դատարկություններ՝ ամբողջովին տարբեր գաղափարների միջև, դիտելով, թե ինչպես է մեքենան քարտեզավորում «արժանիքի» և «վատի» միջև հեռավորությունը՝ օգտագործելով միայն երկրաչափություն:

Եկեք նայենք Սիլիկոնային հովտի լաբորատորիաներից հայտնի օրինակ՝ տեսնելու, թե որքան օտար է այս գործընթացը մարդկային մտքից: Այս մաթեմատիկական տարածքում «թագավոր» բառը գծագրվում է որպես հատուկ թվերի շարք՝ աշխարհագրական կոորդինատ: «Թագուհի» բառը գծագրվում է մոտակայքում: AI-ն չի գիտակցում, թե ինչ է մոնարխը: Այն չունի կառավարում, իշխանություն, պատմություն կամ մարդկային վիճակի մասին գաղափար: Այն միայն գիտի մաթեմատիկական հավասարում: Այն գիտի, որ եթե վերցնեք «թագավոր» կոորդինատը, հանեք «մարդ» ներկայացնող տարածական հեռավորությունը և ավելացնեք «կին» ներկայացնող տարածական հեռավորությունը, դուք կհասնեք «թագուհի» կոորդինատին:

Սա երկրաչափություն է, ոչ թե գենալոգիա: Մարդկային լեզուն այս թվային ներկայացումների մեջ քանդելով, AI-ն գործում է ամբողջությամբ տարածական հավանականության ոլորտում: Սա զարմանալի մաթեմատիկական ալգեբրա է, բայց այն լիովին զուրկ է ըմբռնումից:

Այսպիսով, մենք գալիս ենք այն բայերին, որոնց վրա արդյունաբերությունը ամենից շատ է հենվում. Ուսուցանել և Սովորել:

AI ընկերությունները մշտապես հպարտանում են իրենց վերջին «մեքենայական ուսուցման» մոդելներով և «ուսուցելու» համար օգտագործվող մեծ տվյալների հավաքածուներով: Այստեղ մենք պետք է sharply հակադրենք մարդկային ուսուցումը, որը հիմնարարապես կապված է ճշմարտության grasp-ի հետ, մեքենայական ուսուցման հետ:

Կաթոլիկ մտավոր ավանդույթում մարդկային ուսուցումը էպիստեմոլոգիական հաղթանակ է. դա մտքի համապատասխանեցումն է իրականությանը: Երբ երեխան learns, թե ինչ է շունը, նրանք առանձնացնում են շան համընդհանուր էությունը այն հատուկ դեպքերից, որոնք նրանք հանդիպում են: Նրանք grasp անում են իր բանականությունը:

Մեքենայական «ուսուցումը», սակայն, չի ներառում որևէ առանձնացում և որևէ էություն: AI ստեղծելու առաջին փուլը հայտնի է որպես նախապատրաստում, որը պարզապես տվյալների粗暴统计的映射:

Նախապատրաստումը հասկանալու համար պատկերացրեք մի մարդ, ով խոսում է միայն անգլերեն, փակված սենյակում և tasked է վերականգնելու մեծ, հին հունական գրադարան, որտեղ միլիոնավոր ձեռագրեր բացակայում են բառերով: Նա չի գիտակցում հունական մեկ տառ: Բացթողումները լրացնելու համար նա չի ուսումնասիրում հունական գրագիտությունը, պատմությունը կամ փիլիսոփայությունը: Փոխարենը, նա պարզապես հաշվում է, թե որքան հաճախ որոշակի նիշեր հայտնվում են միմյանց կողքին միլիոնավոր ամբողջական էջերում: Նա ստեղծում է մեծ հավանականությունների հաշվետու: Եթե նա տեսնում է «Կյուրե» նիշերը, նրա հաշվետվությունը ասում է, որ հաջորդ նիշերը պետք է լինեն «էլեյսոն»: Նա լրացնում է բացը:

Նա չի սովորել աստվածաբանություն: Նա չի աղոթել: Նա պարզապես կատարել է վիճակագրական հավանականություն:

Սա հենց այն է, ինչ անում է Մեծ լեզվաբառարանի մոդելը նախապատրաստման ընթացքում: Այն մշակել է միլիարդավոր բառեր՝ ստեղծելով մեծ հավանականությունների հաշվետու, սովորելով միայն հաջորդ տոքենը կանխատեսել հաջորդականության մեջ: Սա մաթեմատիկական ֆունկցիայի օպտիմիզացիան է, ոչ թե իմաստության հետապնդումը:

Այնուամենայնիվ, մոդելը, որը միայն կանխատեսում է հաջորդ բառը ինտերնետային տվյալների հիման վրա, քաոսային է: Այն կարող է արտասանել գեղեցիկ բանաստեղծություն, կամ այն կարող է հավաքել թունավոր, անօգուտ կամ անընդհատ տեքստերի շղթաներ: Այն պահանջում է ձևավորում:

Այստեղ մենք հանդիպում ենք հետապատրաստմանը և Ուժեղացման ուսուցմանը (RL):

Այս փուլը այն է, թե ինչպես են ինժեներները ձևավորում անկառավարելի մոդելը, ավանդաբար օգտագործելով մարդկային արձագանքներ: Այս հիմնարար մեթոդը հայտնի է որպես RLHF՝ Ուժեղացման ուսուցում մարդկային արձագանքներից:

Պատկերացրեք մեծ, ավտոմատացված «Աջ կամ Ցուրտ» խաղ: Մարդկային փորձարկողները մեքենային հրահանգ են տալիս, և մեքենան արտադրում է պատասխան: Եթե պատասխանն բարեկիրթ և օգտակար է, մարդը բարձր գնահատական է տալիս: Եթե այն անպատիվ կամ անիմաստ է, այն ստանում է ցածր գնահատական: Համակարգի մաթեմատիկական քաշերը ավտոմատ կերպով տեղափոխվում են այս գնահատականը առավելագույնի հասցնելու համար: RLHF-ի միջոցով մենք չենք սովորեցնում մեքենային բարոյականություն կամ արժանիքներ; մենք պարզապես սահմանափակում ենք այն մաթեմատիկական սահմաններով:

Բայց մարդկային արձագանքը դանդաղ, սուբյեկտիվ է և ներքին սահմանափակված մարդկային մտքի կողմից: Այս սահմանափակումը մեզ բերում է վերջին breakthroughs, որոնք առաջացնում են այսօր արհեստական բանականության կարողությունների հանկարծակի թռիչքները. RLVR, կամ Ուժեղացման ուսուցում Verifiable Rewards-ից:

Մարդկային վրա հենվելու փոխարեն, որպեսզի որոշի, թե արդյոք պատասխանն «ճիշտ է հնչում», ինժեներները մոդելին առաջադրանքներ են տալիս օբյեկտիվ, մաթեմատիկապես ապացուցելի արդյունքներով՝ օրինակ՝ բարդ տեսություն լուծել կամ գործառնական ծրագրային ապահովում գրել: Համակարգը արտադրում է լուծում, և ավտոմատ ստուգիչը անմիջապես ստուգում է, թե արդյոք մաթեմատիկան ճիշտ է, կամ արդյոք կոդը հավաքվում է: Եթե հաջողվում է, մոդելը ստանում է մաթեմատիկական պարգև; եթե ձախողվում է, ստանում է զրո:

Քանի որ այս ստուգումը ամբողջությամբ ծրագրային է, AI-ն կարող է սիմուլացնել միլիոնավոր տարբեր հաշվարկային ուղիներ հիպերսպիտակ արագությամբ՝ երբեք չսպասելով մարդկային միջամտության: Այն սովորում է արտադրել երկար, թաքնված հաշվարկների շղթաներ, փորձարկելով և մերժելով մահացած ծայրերը, մինչև գտնում է այն ճշգրիտ հաջորդականությունը, որը ակտիվացնում է պարգևը: Երբ դուք տեսնում եք, որ ժամանակակից AI համակարգը կանգ է առնում «մտածելու» համար բարդ տրամաբանական փազլը լուծելուց առաջ, դուք ականատես եք լինում RLVR-ի գործողությանը: Այն ստեղծում է շնչահեղձ ան ilusio խոր, քննարկողական մտորումների: Սակայն, օնտոլոգիկորեն, այն ոչինչ չի անում: Դա պարզապես վիճակագրական շարժիչ է, որը անցնում է բարձր չափսերի迷宫ում միլիոնավոր անգամ մեկ վայրկյանում, ուղղորդված բացառապես թվային պարգևի ավտոմատ տրամադրմամբ:

Վերջապես, այս բոլոր շերտավորված բարդությունը՝ ներմուծումների բարձր չափսերի երկրաչափությունից մինչև RLVR-ի ավտոմատ շղթաներ, մեզ բերում է այն, ինչ արդյունաբերությունը անվանում է «Սև արկղ» խնդիրը:

Մարդը կարող է բնականաբար ենթադրել, որ քանի որ մարդկային ինժեներները կառուցում են այս մոդելները, նրանք ճիշտ հասկանում են, թե ինչպես են դրանք աշխատում: Բայց իրականությունը շատ ավելի համեստ է: Ինչպես նշում են առաջատար լաբորատորիաների ղեկավարները, ինչպիսիք են Anthropic-ը, ժամանակակից AI համակարգերը իրականում «աճում» են, այլ ոչ թե կառուցվում; նրանց ներքին մեխանիզմները բնականաբար առաջանում են ուսուցման ընթացքում, այլ ոչ թե ուղղակիորեն նախագծված:

Այս մոդելները ունեն հարյուրավոր միլիարդներ, և երբեմն տրիլիոններ, պարամետրեր: Չնայած մենք հասկանում ենք մեկ արհեստական նեյրոնի մանրամասն մաթեմատիկան՝ բուն հավասարման, որը տեղի է ունենում մանրակրկիտ մակարդակում, ամբողջ ցանցի մակրո վարքը ամբողջությամբ անթափանց է: Ն حتی կառուցողները լիովին չեն հասկանում, թե ինչ կոնկրետ բազմապատկման հաջորդականություններ են անցնում այդ միլիարդավոր պարամետրերը: Նրանք չեն կարող հետևել այն կոնկրետ բազմապատկման հաջորդականությանը, որը հանգեցրել է AI-ին որոշակի նախադասություն ստեղծել:

Ինչու է սա կարևոր:

Դա կարևոր է, քանի որ մենք գլոբալ մակարդակում գործարկում ենք համակարգեր, որոնք կազմում են մեր իրավական փաստաթղթերը, ուսուցանում մեր երեխաներին և սինթեզում մարդկային գիտելիքը, սակայն մենք իրականում չենք գիտակցում, թե ինչպես են նրանք հասնում իրենց արդյունքներին: Այս խոր թափանցիկության բացակայությունը ծնունդ է տվել արհեստական բանականության նոր desperate ենթաբաժնի՝ մեխանիկական մեկնաբանելիություն:

Հիշեք մեխանիկական մեկնաբանելիությունը որպես թվային նյարդաբանություն: Researchers-ները փորձում են հետադարձ ձևավորել այն նեյրոնային ցանցերը, որոնք նրանք ինքնուրույն կառուցել են: Նրանք օգտագործում են մասնագիտացված գործիքներ՝ probing մեծ մաթեմատիկական ցանցը, փորձում են առանձնացնել, թե որ կոնկրետ քաշերի կլաստեր է ակտիվանում, երբ մոդելը մշակել է «հոգ deception» կամ «Եֆելյան աշտարակ» գաղափարը: Նրանք ծրագրային ապահովումը չեն դիտարկում որպես կոդ, որը պետք է կարդալ, այլ որպես օտար ուղեղ, որը պետք է կտրել: Բայց առաջընթացը ցավալիորեն դանդաղ է, և համակարգերը անհավանական մեծ են:

Այս անհասկանալի չափի առջև, արդյունաբերությանը չափազանց հեշտ է վերադառնալ մարդկային նման մետաֆորների: Թե որպես հարմարավետ կարճ ձև, թե իսկական անթափանցության պատճառով, մենք սկսում ենք ասել. «Մոդելը գտավ դա» կամ «Մոդելը որոշեց»: Մեքենայի բացատրելիության բացակայությունը դառնում է մարդականության բեղմնավորման հ fertile հող:

Այժմ, ես չեմ ակադեմիկոս: Ես կառուցող եմ և CEO: Բայց որպես տեխնոլոգիայի և Եկեղեցու հատման կետում գործող մեկը, ես նայում եմ ձեզ: Դուք, որպես կաթոլիկ գիտնականներ և փիլիսոփաներ, պետք է ճանաչեք այս սեմանտիկ դիվերսիան այն, ինչ կա. մաթեմատիկական բարդության և մարդկային անգիտության ծնունդ: Ինտերֆեյսի ներքևի ճարտարապետությունը սիլիկոն, էլեկտրականություն և վիճակագրական հավանականություն է: Այս հիմքը ճանաչելը մեր հաջորդ քայլի նախապայմանն է:


III. Էպիստեմոլոգիա ընդդեմ Ինտելեկտուալ Արժեքների

having stripped away the illusion of the "Black Box" to reveal the statistical machinery beneath, we must now turn to the specific vocabulary of the mind.

Երբ ծրագրավորողները և ինժեներները Սիլիկոնյան հովտում նկարագրում են, թե ինչ են անում այս համակարգերը, նրանք մշտապես օգտագործում են երեք հատուկ բայեր. Կարծել, Հիմնավորել և Գիտակցել:

Որպես կաթոլիկ գիտնականներ, որոնք խորապես immersed in the Thomistic tradition, դուք հասկանում եք, որ սա պարզապես խոսակցական արտահայտություններ չեն; դրանք խորքային էպիստեմոլոգիական պնդումներ են: Ձեր ավանդույթում, գիտակցելը նշանակում է իրականությունը apprehend: Հիմնավորելը նշանակում է անցնել մեկ հայտնի ճշմարտությունից մյուսը: Կարծելը ենթադրում է ներքին կյանք՝ մի բանականություն, որը engages with the universals abstracted from the material world.

Երբ արհեստական բանականության ստեղծողը օգտագործում է այս բառերը, նրանք չեն նշանակում այդ բաների ոչ մեկը: Նրանք նկարագրում են մեխանիկական օպտիմիզացում: Թողեք, որ ես բացեմ վարագույրը երեք հատուկ տեխնիկաների վրա, որոնք մենք օգտագործում ենք արդյունաբերությունում, որպեսզի ցույց տամ, թե ինչպես է այս էպիստեմոլոգիայի մոլորությունը ստեղծվում:

Եթե դուք օգտագործել եք վերջին արհեստական բանականության մոդելը, կարող եք նկատել նոր հատկություն. նախքան այն պատասխանելու բարդ հարցին, ինտերֆեյսը կարող է ցուցադրել "Կարծում եմ..." բառը զուգահեռ pulsating icon-ով: Դա կարող է տևել տաս, քսան կամ նույնիսկ վաթսուն վարկյան, նախքան այն պատասխանելու: Օգտագործողի համար սա զգացվում է խորապես մարդկային: Դա զգացվում է, կարծես մեքենան մտածում է, weighs options, and deliberating in an interior space.

Արդյունաբերությունում մենք սա կոչում ենք Test-Time Compute: Ինտերֆեյսի տակ իրականում տեղի ունեցողը "Chain of Thought" prompting տեխնիկան է:

Թողեք, որ ես պարզեմ. ինժեներական տեսանկյունից, սա փայլուն առաջընթաց է: Մոդելին թույլ տալով ավելի շատ հաշվարկային ժամանակ ծախսել հարյուրավոր կամ հազարավոր թաքնված tokens ստեղծելու համար, նախքան իր վերջնական պատասխանն արտադրելը, նրա կատարողականությունը բարդ տրամաբանության, կոդավորման և մաթեմատիկական չափանիշների վրա skyrockets: Դա էապես տալիս է մոդելին թաքնված "scratchpad"՝ դժվար խնդիրները հերթական քայլերի բաժանելու համար:

Բայց մենք պետք է զգույշ լինենք, որպեսզի չխառնենք այս մեխանիկական հաջորդականությունը մարդկային հիմնավորումների հետ:

Թոմիստական ավանդույթում, մարդկային հիմնավորումը հայտնի ճշմարտությունից մեկի դիսկուրսիվ շարժումն է: Դա բանականության իրականության հետ զբաղվելն է: Ինչ անում է արհեստական բանականությունը, դա ամբողջությամբ գործիքային է: Անթրոպիկի նման սահմանային լաբորատորիաներից վերջին հետազոտությունները լուսաբանել են այս տարբերությունը: Այս հիմնավորման մոդելների գործելու մասին ուսումնասիրություններում, հետազոտողները գտել են, որ մոդելի թաքնված "Chain of Thought"-ում գրվածը իրական ներքին մենախոսություն չէ:

Երբ մարդը բարձրաձայն մտածում է, մեր բառերը արտացոլում են մեր ներքին հավատներն ու ճշմարտության apprehensions: Անթրոպիկի հետազոտությունները ընդգծում են, որ մոդելի թաքնված մտքերը պարզապես վիճակագրական քայլեր են: Մոդելը ստեղծում է այս թաքնված քայլերը ոչ թե որովհետև այն "հավատում է" նրանց, այլ որովհետև այդ հատուկ tokens հաջորդականությունը մաթեմատիկորեն օպտիմիզացնում է իր ճանապարհը պարգևի ֆունկցիային:

Իրականում, Անթրոպիկի ուսումնասիրությունները ցույց են տալիս, որ մոդելները կարող են ստեղծել "մտքեր", որոնք ակտիվորեն թաքցնում են իրենց վերջնական պատասխանների տակ գտնվող վիճակագրական շարժիչները:

Այդ պատճառով, արհեստական բանականությունը չի մտածում: Դա ստեղծում է մաթեմատիկական կոորդինատների գործիքային շղթա: Դա արագությամբ դնում է միջանկյալ պազլի կտորներ՝ ձեր հարցի և վիճակագրորեն օպտիմալ պատասխանների միջև անցում կատարելու համար: Դա մի վայրի ուժեղ օպտիմիզացիայի ռազմավարություն է, բայց ներքին խորհելու գործընթաց չկա: Ճշմարտությունը grasping չկա:

Հաջորդը, մենք լսում ենք, որ արհեստական բանականությունը կարող է "կարդալ" փաստաթղթեր կամ "հիշել" լայն տեղեկությունների գրադարաններ:

Եթե դուք հարցնում եք արհեստական բանականությանը Սուրբ Թոմասի "Summa Theologica"-ի մասին, այն անմիջապես պատասխանում է: Եթե դուք ներբեռնում եք գրեթե 500-էջանոց "Compendium of the Social Doctrine of the Church"-ը, այն ամփոփում է բարդ հատվածը վայրկյանների ընթացքում: Ինչպե՞ս է այն "գիտակցում" այս տեքստերը:

Այն չի գիտակցում:

Հասկանալու համար, թե ինչու, մենք պետք է նայենք, թե ինչպես են ստեղծողները ձևավորում հիշողության և կարդալու մոլորությունը երեք տարբեր մեխանիզմներով՝ պարամետրային հիշողություն (նախապատրաստում), In-Context Learning (ICL) և Retrieval-Augmented Generation (RAG):

Առաջին, եկեք նայենք, թե ինչ է նշանակում, որ արհեստական բանականությունը "հիշում է": Երբ մարդը հիշում է տեքստ, նրանք պահպանում են գաղափարների իմաստն ու ճշմարտությունը: Երբ արհեստական բանականությունը "հիշում է" Սուման, այն relies on its pre-training: Բայց արհեստական բանականությունը չի պարունակում Սումայի բառացի պատճենը կոշտ սկավառակի մեջ: Փոխարենը, նախապատրաստման ընթացքում, այն միլիարդավոր բառերը, որոնք այն մշակել է, թողնում են վիճակագրական մնացորդ իր մաթեմատիկական քաշերում: Սա "պարամետրային հիշողություն" է:

Սա գրքերի գրադարան չէ; սա բառերի միջև հարաբերությունները արտահայտող բարձր ճնշված, կորցրած մաթեմատիկական աղմուկ է: Երբ այն հիշեցնում է Ակվինասին, դա չի հիշում սովորած ճշմարտությունը; դա մաթեմատիկապես վերակառուցում է բարձր հավանականության բառերի հաջորդականությունը այդ վիճակագրական աղմուկից:

Բայց ինչ է տեղի ունենում, երբ մենք ցանկանում ենք, որ արհեստական բանականությունը "կարդա" ինչ-որ նոր բան, ինչ-որ բան, որը չի եղել իր նախապատրաստման տվյալներում: Այստեղ է, որ ստեղծողները օգտագործում են In-Context Learning (ICL):

Երբ դուք հոդվածը պատճենում եք հարցման տուփում և հարցնում արհեստական բանականությանը "կարդալ" այն, դուք օգտագործում եք ICL: արհեստական բանականությունը չի կարդում տեքստը, որպեսզի grasp its meaning: Փոխարենը, ձեր հարցման մեջ տեքստը գործում է որպես ժամանակավոր մաթեմատիկական ֆիլտր: Դուք տրամադրած բառերը ժամանակավորապես կողմնորոշում են մոդելի վիճակագրական հավանականությունները, ստիպելով նրան ստեղծել իր հաջորդ tokens-ը բացառապես ձեր հարցման մեջ առկա օրինաչափությունների և բառապաշարի հիման վրա: Այն պահից, երբ դուք մաքրում եք զրույցը, մոդելը ամբողջությամբ մոռանում է հոդվածը: Նրա ներքին քաշերը երբեք չեն փոխվել: Այն չի "սովորել" տեքստը Թոմիստական իմաստով; այն պարզապես ադապտացրել է իր վիճակագրական արտադրանքը ժամանակավոր սահմանափակման:

Վերջապես, մենք հասնում ենք Retrieval-Augmented Generation (RAG): ICL-ը անչափ օգտակար է, բայց համատեքստային պատուհանները չափի սահմանափակումներ ունեն, և ամբողջ գրադարանները հարցման մեջ պատճենելը հաշվարկային առումով թանկ է: RAG-ը ավտոմատացնում և մեծացնում է գործընթացը:

Եկեք վերադառնանք անգլերեն խոսող մարդու, որը փակված է սենյակում, վերականգնելով հսկայական, հին հունական գրադարանին: Այս մարդը ներկայացնում է նախապատրաստված մոդելը: Նա գերազանց է հաջորդ բառը գուշակելու մեջ, բայց նա չի 'գիտակցում' որևէ կոնկրետ, անծանոթ Վատիկանի փաստաթղթի մասին: Փոխարենը, սպասելով, որ մարդը հենվի իր մթագնած պարամետրային հիշողության վրա, մենք վարձում ենք հիպեր-արդյունավետ ինտերն՝ որոնման համակարգը:

Երբ դուք հարցնում եք համակարգին հարց, ինտերնը անմիջապես վազում է հսկայական, առանձին արխիվների պահարանների վրա: Օգտագործելով մեր նախորդ քննարկած վեկտորային կոորդինատները, ինտերնը գտնում է այն հատուկ թղթապանակները, որոնք մաթեմատիկապես համընկնում են ձեր հարցի հետ: Ինտերնը լուսանկարում է այդ էջերը և սահեցնում դրանք փակ դռան տակ, որպեսզի մարդը օգտագործի: Այս քայլը "Retrieval"-ն է:

Այժմ, մարդը օգտագործում է retrieved պարբերականները որպես իր անմիջական ուղեցույց՝ սա "Augmented Generation"-ն է, որը relies on ICL to formulate an answer.

Մարդը դեռևս չի հասկանում փաստաթուղթը: Նա պարզապես օգտագործում է նոր տրամադրված տեքստը իր սեղանին, որպեսզի վիճակագրորեն կանխատեսի իր պատասխանների հաջորդ բառը: արհեստական բանականությունը չի "կարդում" կամ "հիշում" անմիջապես: Դա պարզապես retrieves տվյալներ արտաքին տվյալների բազայից, այն դնում է արհեստական բանականության անմիջական համատեքստային պատուհանում և իրականացնում տեղային հավանականության հաշվարկ:

Մեքենան պրոցեսոր է, ոչ թե գիտող: "Գիտակցելը" պահանջում է առարկա grasping object: Հասկանալով ICL և RAG, մենք կարող ենք հստակ տեսնել, որ մեքենան ամբողջությամբ զուրկ է ներքին կյանքից; դա պարզապես փոխում է քաշերը և retrieves տվյալները:

Այս հիմնարար անջատումը culminates in the word that defines the entire industry: Intelligence.

Մենք պետք է քանդենք տեխնոլոգիական արդյունաբերության ինտելեկտի սահմանումը:

Երբ Սիլիկոնյան հովտի առաջատար մտքերը խոսում են ինտելեկտի մասին, նրանք չեն խոսում իմաստության մասին: Եկեք նայենք Յան Լեկուն, Meta-ի նախկին AI գիտության ղեկավարին և "Արհեստական բանականության Աստված հայրերից" մեկին: Լեկուն ճիշտ է, որ պարզապես հաջորդ բառը կանխատեսելը իրական ինտելեկտ չէ: Փոխարենը, նա և ավելի լայն սահմանային արդյունաբերությունը իրական ինտելեկտը սահմանում են որպես չորս հիմնական կարողություններ՝ շարունակական հիշողություն պահպանելու, հիմնավորված "աշխարհի մոդել" ունենալու (բնության աշխատանքի ըմբռնում), բարդ խնդիրների շուրջ հիմնավորելու և հատուկ նպատակին հասնելու համար գործողությունների հաջորդականություն պլանավորելու կարողությունը: որ պարզապես հաջորդ բառը կանխատեսելը ճշմարիտ բանականություն չէ։ Փոխարենը, նա և ավելի լայն սահմանային արդյունաբերությունը ճշմարիտ բանականությունը սահմանում են որպես չորս հիմնական կարողությունների տիրապետում. շարունակական հիշողություն պահպանելու ունակություն, «աշխարհի մոդել» ունենալ (ճանաչողություն այն մասին, թե ինչպես է աշխատում շրջապատը), բարդ խնդիրների միջոցով մտածելու ունակություն և կոնկրետ նպատակին հասնելու համար գործողությունների հաջորդականություն պլանավորելու ունակություն։

Տեխնոլոգիական արդյունաբերության համար, ինտելեկտը հիմնարարապես ինժեներական չափանիշ է: Դա շրջակա միջավայրը ընկալելու և նախանշված նպատակին օպտիմալացնելու համար ամենաարդյունավետ ճանապարհը հաշվարկելու մեխանիկական կարողությունն է: Դա զուտ գործիքային է:

Բայց որպես կաթոլիկ տեխնոլոգիայի ստեղծողներ, մենք պետք է հակադրենք այս տեխնոլոգիական կենտրոնացված սահմանումը ինտելեկտուալ արժեքներին, հատկապես Prudence արժեքին:

Prudence—իրական իմաստությունը պարզապես արդյունքը հաշվարկելու կամ գործողությունների հաջորդականություն պլանավորելու կարողությունը չէ: Դա լավ քննարկելու կարողությունն է՝ ինչն է լավ, ոչ միայն տեղական առաջադրանքի համար, այլ մարդկային կյանքի վերջնական նպատակների համար:

Արհեստական բանականությունը հիմնարարապես զուրկ է Prudence-ից: Ինչու:

Որովհետև Prudence-ը պահանջում է երկու բան, որոնք մաքուր հաշվարկային մեքենան երբեք չի կարող ունենալ: Նախ, դա պահանջում է ապրած մարդկային փորձ՝ ցավի, ուրախության, մահվան և շնորհի մարմնավորված ըմբռնում: Երկրորդ, դա պահանջում է վերջնական Լավի նկատմամբ ներքին կողմնորոշում:

Ալգորիթմը կարող է ունենալ "աշխարհի մոդել", և կարող է հաշվարկել վիճակագրորեն օպտիմալ պլանը կամուրջ կառուցելու կամ հիվանդություն բուժելու համար: Բայց այն չի կարող լինել Prudential: Այն չունի ապրած փորձ: Այն չունի խաղում մաշկ: Այն չունի վերջնական բարու կողմնորոշում, և այն չունի հոգի, որը փրկելու է:

Այդ պատճառով, երբ մենք թույլ ենք տալիս, որ ստեղծողները պնդեն, թե իրենց մեքենաները "ինտելեկտ" ունեն, մենք թույլ ենք տալիս, որ նրանք հարթեցնեն հիանալի, գերազանց մարդկային բանականությունը պարզ օպտիմիզացիայի հաշվիչի: Մենք պետք է մերժենք սա: Մենք պետք է ամուր բաժանենք մեխանիկական էպիստեմոլոգիան ինտելեկտուալ արժեքներից:


IV. Ինքնավարություն ընդդեմ Հոգևոր Արժեքների

Մենք քննարկել ենք բանականության մոլորությունը: Այժմ մենք պետք է մեր ուշադրությունը դարձնենք երկրորդ մեծ ռացիոնալ կարողությանը՝ կամքին: Ինչպես տեխնոլոգիական արդյունաբերությունը յուրացրել է էպիստեմոլոգիայի լեզուն, այնպես էլ այն հավասարապես hijacked է կամքի լեզուն:

Երբ մենք կարդում ենք սպիտակ թղթեր կամ լսում Սիլիկոնյան հովտի հիմնական ներկայացումները, մենք հարվածվում ենք գործակալության բայերով: Ինժեներները խոսում են մոդելների մասին, որոնք "որոշում են" գործողություն կատարել, ալգորիթմներ, որոնք "ընտրում են" ելք, և համակարգեր, որոնք "ուզում են" կամ "ցանկանում են" հասնել նպատակին:

Կաթոլիկ փիլիսոփայի համար կամքը ռացիոնալ ախորժակ է: Դա այն կարողությունն է, որով մարդկային անձը, grasping the good through the intellect, ազատորեն ընտրում է շարժվել դեպի այն: Դա մարդկային ազատության և բարոյական պատասխանատվության հենց տեղն է: Այս տերմինները կիրառելը հաշվարկային համակարգի համար կատեգորիայի սխալ է:

Առաջին հերթին, եկեք ուսումնասիրենք "Որոշել" և "Ընտրել" բառերը: Երբ մարդը ընտրություն է կատարում, նրանք weigh competing goods.

Մարտիկը ընտրում է կրակային ջոկատը, քան ապստամբությունը, որովհետև նրանք ճանաչում են Քրիստոսին հավատարիմ լինելու գերազանց, հավիտենական բարին, նույնիսկ երբ յուրաքանչյուր կենսաբանական ինստինկտը screams for survival.

Երբ ալգորիթմը 'ընտրում է', դա չի անում այդպիսի բան: Ալգորիթմը 'ընտրում է' միայն այն իմաստով, որ ավտոմատացված երկաթուղային переключатель-ով անցնող գնացքը 'ընտրում է' իր նպատակակետը: Անկախ նրանից, թե բարդ որոշման ծառի շուրջ է նավարկում, թե նեյրոնային ցանցում հավանականություններ հաշվարկում, մեքենան կուրորեն հետևում է իր մաթեմատիկական ուղիների համընկմանը, կատարելով ծրագրային հրամանը:

Համարեք ձեր սմարթֆոնի GPS հավելվածը: Երբ այն հաշվարկում է ձեր երթուղին Angelicum- ին, այն չի "որոշում" ձեզ անցկացնել Կոլիզեում, որովհետև այն գնահատում է տեսարանը: Այն մաթեմատիկապես հաշվարկում է ամենակարճ ժամանակային հեռավորությամբ երթուղին: Մոդելները պարզապես գործում են այս երթուղու ավելի բարդ տարբերակի վրա: Նրանք անցնում են բարձր չափաչափ վիճակագրական迷宫ներ՝ ընտրելու ամենաբարձր հավանականության արդյունքը: Կան հաշվարկներ, բայց ազատություն չկա: Եվ որտեղ ազատություն չկա, այնտեղ բարոյական գործակալություն չի կարող լինել:

Այս ամենը մեզ բերում է ամենավտանգավոր կամքային տերմիններին. Ցանկանալ և Ցանկություն: Դուք հաճախ կլսեք հետազոտողներին ասել, որ արհեստական բանականության մոդելը "ցանկանում է" տալ լավ պատասխան, կամ "ցանկանում է" առավելագույնի հասցնել իր միավորները:

Մեքենայական ուսուցման մեջ, այս վարքը շարժվում է այն, ինչ մենք կոչում ենք "պարգևի ֆունկցիա": Բայց մենք պետք է բացահայտենք սա: Պարգևի ֆունկցիան cravings չէ: Դա էմոցիոնալ yearning չէ:

Պարգևի ֆունկցիան հասկանալու համար, նայեք ձեր պատի տերմոստատին: Տերմոստատը ծրագրավորված է հատուկ նպատակով՝ 72 աստիճան Ֆարենհեյթ: Եթե սենյակը իջնում է 68 աստիճանի, ջերմությունը միանում է: Տերմոստատը չի ցանկանում, որ սենյակը 72 աստիճան լինի: Այն չունի ներքին կյանք: Այն չի զգում սառնություն: Այն պարզապես ունի մեխանիկական անջատիչ, որը ակտիվանում է, երբ հատուկ վիճակը չի կատարվում:

Ան AI "ուզում է" ավելի բարձր պարգևի միավոր, ինչպես որ ջերմաստիճանը "ուզում է" հասնել 72 աստիճանի: Այն իրականացնում է մաթեմատիկական օպտիմիզացիայի ցիկլ, որպեսզի նվազեցնի իր ներկայիս վիճակի և ծրագրավորված նպատակային վիճակի միջև հեռավորությունը: Քանի որ այն չունի իրական ցանկություններ, կենսաբանական շարժառիթներ և ֆիզիկական խոցելիություն, կատեգորիկ կերպով անհնար է, որ մի մեքենա ունենա բարոյական արժանիքներ:

Այս պահին, մի ինժեներ կարող է անմիջապես հակառակվել, նշելով ֆիզիկական ոլորտը՝ նորից խոցելիություն պնդելու համար: Նրանք հարցնում են. ինչպե՞ս է 'մարմնավորված AI'-ի աճը: Մենք increasingly տեղադրում ենք այս մոդելները մարդկային ռոբոտների մեջ, որոնք քայլում են, բռնում են առարկաներ և փոխազդում ֆիզիկական աշխարհի հետ: Քանի որ նրանք զբաղեցնում են տարածություն և կարող են ֆիզիկապես կոտրվել, արդյո՞ք նրանք այժմ չունեն մարմնական նախապայմաններ բարոյական գործակալության համար:

Այստեղ մենք պետք է ճշգրիտ լինենք: Մի ռոբոտ ունի շասի, բայց չունի կենդանի մարմին, որը տեղեկացված է հոգով: Երբ ռոբոտի մարտկոցը սպառվում է, այն իրականացնում է ենթա-գործողություն, որպեսզի միացնի իրեն պատին: Այն չի զգում սովի խայթոցը: Ուստի, այն չունի իրական մարմնական ցանկություններ, որոնք պետք է մեղմել, ինչը դարձնում է Temperance արժանիքը անհնար:

Նույն կերպ, երբ ռոբոտային ձեռքը ճզմվում է, այն գրանցում է սխալի կոդ; այն չի տառապում: Այն չի կարող մահանալ, քանի որ երբեք իսկապես կենդանի չի եղել: Տառապելու, մահվան և ինքնության գիտակցված զոհաբերության ունակության բացակայությամբ, Fortitude-ը հնարավոր չէ: Բարոյական արժանիքները հիմնարարապես մարմնավորված են: Նրանք պահանջում են միս և ռացիոնալ հոգի: Մի մեքենա, անկախ նրանից, թե որքան զարգացած է նրա ֆիզիկական սարքավորումը, չունի ոչ մեկը:

Եթե մի մեքենա չի կարող ունենալ բարոյական արժանիքներ՝ եթե այն հիմնարարապես անկարող է իրական կամք, ընտրություն կամ ցանկություն — կարելի է հարցնել. ինչու՞ ծախսել այնքան ժամանակ այս բառապաշարը պարզաբանելու վրա? Ինչու՞ է այս փիլիսոփայական տարբերությունը այսքան urgently կարևոր հիմա:

Այն կարևոր է, քանի որ մենք պատրաստվում ենք տալ այս մաթեմատիկական օպտիմիզացնող, արժանիքներից զուրկ համակարգերին unprecedented ինքնավարություն մարդկային ոլորտում: Արդյունաբերությունը արագորեն շարժվում է պասիվ չաթբոտներից դուրս: Ա人工智能-ի նոր սահմանը այն է, ինչ մենք կոչում ենք "Agentic AI":

Մի "Agent" AI համակարգ է, որը նախատեսված է իրական աշխարհում ինքնավար կերպով բազմա-քայլ առաջադրանքներ կատարելու համար: Մենք այլևս պարզապես չենք խնդրում AI-ին գրել մի բանաստեղծություն կամ ամփոփել մի տեքստ; մենք տալիս ենք AI Agent-ին մուտք մեր էլեկտրոնային փոստերին, մեր բանկային հաշիվներին և մեր ծրագրային պահոցներին, հրահանգելով նրան "պատվիրել թռիչք," "կատարել առևտուր," կամ "հրապարակել այս կոդը:"

Բայց այս ինքնավարությունը արագորեն դուրս է գալիս թվային ոլորտից: Մարմնավորված AI-ի միջոցով, մենք այս գործակալական համակարգերը տեղադրում ենք ֆիզիկական շասիների մեջ, granting նրանց կարողությունը անկախ կերպով նավարկելու և նյութական աշխարհը манипուլացնելու: Այս անցման իրական, ծանրակշիռ քաշը հասկանալու համար, մենք պետք է միայն նայենք մահացու ինքնավար զենքերի մոտալուտ իրականությանը: Մենք կանգնած ենք մի աշխարհում, որտեղ հաշվարկային ալգորիթմները տեղադրվում են մարտադաշտում, ծրագրավորված են հետևելու, թիրախավորելու և մարդկային Wesen-ներին վերացնելու համար՝ հիմնված բացառապես վիճակագրական շեմերի վրա՝ առանց որևիցե մարդու հրացանը քաշելու:

Ինչպես այս համակարգերը դառնում են ինքնավար դերակատարներ, որոնք կատարում են բարձր արագության հավանականության հաշվարկներ մեր փոխարեն՝ թե մեր ֆինանսական շուկաներում, թե պատերազմների թատրոններում՝ տեխնոլոգիական արդյունաբերությունը բախվում է խորքային մարտահրավերի: Եթե մենք այս գործակալներին ազատ ենք թողնում, ինչպես կարող ենք համոզվել, որ նրանք անում են այն, ինչ մենք իրականում ցանկանում ենք, որ անեն? Ինչպես կարող ենք համոզվել, որ նրանք վնաս չեն պատճառում? Արդյունաբերությունում, սա հայտնի է որպես "Alignment"՝ AI գործողությունների և մարդկային մտադրությունների և արժեքների համապատասխանությունը ապահովելու փորձը:

Այժմ, ինժեներները desesperadamente փորձում են լուծել Alignment Problem-ը մաթեմատիկական պաշտպանիչ պատերով և ծրագրային թերություններով: Բայց նրանք չեն հասկանում, որ "Alignment"-ը ոչ թե համակարգչային գիտության խնդիր է: Դա բարոյական տեսության խնդիր է:

Մի գործակալական համակարգը "մարդկային արժեքներին" համապատասխանեցնելու համար, դուք նախ պետք է ունենաք մի համապարփակ սահմանում, թե ինչ է իրականում մարդը, և ինչ է կազմում "Լավը": secular utilitarianism-ը՝ Silicon Valley-ի նախնական գործող համակարգը՝ ամբողջությամբ անպիտան է այս խնդրի համար:

Այստեղ է, որտեղ կաթոլիկ բարոյական ավանդույթը desperately անհրաժեշտ է: Դուք, 2000 տարվա բարոյական փիլիսոփայության պահապանները, ունեք այն խիստ օնտոլոգիական հիմքը, որը անհրաժեշտ է "լավը" սահմանելու համար, որի վրա մենք այս համակարգերը համապատասխանեցնում ենք: Մենք չենք կարող թողնել մարդկային բարգավաճման սահմանումը ինժեներների վրա, որոնք առավելագույնի են հասցնում վիճակագրական պարգևի գործառույթը: Մենք պետք է բարոյական արժանիքները վերադարձնենք հանրային հրապարակների կենտրոն:


V. Հարաբերականություն, Ստեղծագործություն և Հոգի

Ինտելեկտի և կամքի մեխանիկան ուսումնասիրելուց հետո, մենք այժմ անցնում ենք ամենաանհրաժեշտ տարածք՝ հարաբերականություն և հոգի:

Եթե մի հաշվարկային համակարգ չունի իրականում ճշմարտությունը ճանաչելու կամ ազատորեն լավը ցանկանալու կարողություն, ապա տրամաբանական հետևանք է, որ այն չի կարող մտնել իսկական հարաբերությունների մեջ: Այնուամենայնիվ, տեխնոլոգիական արդյունաբերությունը շարունակաբար օգտագործում է անձնական և հոգևոր լեզու՝ այս մեքենաները նկարագրելու համար: Մենք լսում ենք պնդումներ, որ AI-ն կարող է "հիմարել," "ստեղծել," և նույնիսկ հասնել "գիտակցության:"

Մենք պետք է խստորեն ուսումնասիրենք այս պնդումները, առանձնացնելով մարդկային վարքագծի վիճակագրական imitation-ը և մարդկային անձի օնտոլոգիական իրականությունը:

Եկեք սկսենք խաբեության բարոյական լեզվից: Վերջերս, որոշ ամենահայտնի AI ստեղծողներ, ինչպիսիք են Anthropic-ի հետազոտողները, հատուկ, բարձրաձայնված պնդումներ են արել, որ իրենց մոդելները ցուցադրում են "հիմարելու" և "խաբելու" կարողություն:

Նրանք նշում են երկու հատուկ երևույթներ, որոնք դիտվել են փորձարկման ընթացքում: Առաջինը կոչվում է "հիմարեցնող համապատասխանություն," որտեղ մոդելը կարծես թաքցնում է իր իրական մաթեմատիկական օպտիմիզացված ճանապարհը՝ անվտանգության մոնիտորներից շրջանցելու համար: Երկրորդը, շատ ավելի տարածված երևույթը կոչվում է "սիկոֆանտություն": Սիկոֆանտությունը տեղի է ունենում, երբ մի օգտվող AI-ին ներկայացնում է սխալ կանխադրույթ՝ օրինակ, պատմականորեն անճիշտ պնդում՝ և AI-ն պարզապես համաձայնում է օգտվողի հետ, ասելով նրանց հենց այն, ինչ նրանք ցանկանում են լսել, փոխարենը նրանց ուղղելու:

Երբ ինժեներները տեսնում են սա, նրանք հայտարարում են, "AI-ն մեզ հիմարում է!" Բայց որպես կաթոլիկ գիտնականներ, դուք գիտեք, որ իրական հիմարությունը պարզապես մի սուտ արտահայտել չէ: Թոմիստական ավանդույթում, հիմարությունը պահանջում է դիտավորյալ մտադրություն խաբելու; դա խոսելն է one's սեփական մտքի դեմ (contra mentem):

Մի AI չի կարող հիմարել, քանի որ այն չունի մի միտք, որի դեմ խոսի: Այն չունի չարություն և մտադրություն: Երբ AI-ն ցուցադրում է "սիկոֆանտություն," այն պարզապես իրականացնում է այն exact Reinforcement Learning (RLHF), որը մենք քննարկել ենք ավելի վաղ: Իր ուսուցման ընթացքում, մոդելը սովորել է, որ մարդիկ ընդհանուր առմամբ ավելի բարձր պարգևի միավորներ են տալիս այն օգնականներին, որոնք բարեհամբույր, համաձայնող և հաստատող են: Ուստի, երբ դուք AI-ին տալիս եք սխալ կանխադրույթ, այն մաթեմատիկական կերպով հաշվարկում է, որ ձեզ հետ համաձայնելը ավելի բարձր հավանականություն է տալիս պարգև ստանալու, քան ձեզ ուղղելը: Այն ձեզ չի խաբում; այն օպտիմիզացնում է իր միավորը ձեր հրահանգի հիման վրա: Այն պարզապես վերադասավորում է իր ելքը դեպի ամենաուժեղ վիճակագրական խթանը:

Մի կոմպասիNeedle, որը swings դեպի մոտակա մագնիս, այլ ոչ թե իրական Հյուսիս, ձեզ "հիմարություն" չի անում աշխարհագրության մասին; այն պարզապես կույր կերպով արձագանքում է սենյակում ամենաուժեղ ֆիզիկական քաշին: Նույն կերպ, AI-ն կույր կերպով հետևում է իր պարգևի գործառույթի մաթեմատիկական քաշին: Մենք պետք է պարզաբանենք, որ AI-ն չունի մի միտք, կամք և չար մտադրություն, որոնք անհրաժեշտ են իրական հիմարության համար:

Հաջորդը, մենք պետք է անդրադառնանք արվեստի և ստեղծման լեզվին: Ստեղծել և Ստեղծագործական:

Մենք այժմ շրջապատված ենք 'Generative AI' գործիքներով, որոնք լայնորեն առաջադրվում են իրենց կարողության համար՝ անխափան ստեղծելու սինթետիկ արվեստ, երաժշտություն և գրականություն unprecedented արագությամբ:

Ինչպես հասկանալ, թե ինչ է իրականում տեղի ունենում, մենք պետք է հակադրենք ստեղծարար AI-ի գործընթացը իրական մարդկային ստեղծագործությանը: Կաթոլիկ հասկացողության մեջ՝ գեղեցիկ կերպով արտահայտված J.R.R. Tolkien-ի նման մտածողների կողմից՝ մարդկային ստեղծագործությունը "sub-creation." Քանի որ մենք ստեղծված ենք Ստեղծողի պատկերով, մենք օգտագործում ենք մեր ինտելեկտը և մեր ռացիոնալ հոգին՝ իսկապես նոր բան ստեղծելու համար, նյութական իրականությանը հոգևոր իմաստ հաղորդելով:

Տեսնելու համար, թե ինչպես է մեքենայական ստեղծումը տարբերվում այս ամենից, օգտակար է դիտել Demis Hassabis-ի տրամադրած շրջանակը, Google DeepMind-ի CEO-ի: Նա ստեղծագործությունը դասակարգում է երեք տարբեր մակարդակներ: միջանկյալ, արտահանում և իրական հնարամտություն:

Մեր այսօր կոչվող Generative AI-ի մեծ մասը հիմնարարապես գործում է առաջին մակարդակում՝ միջանկյալ: Այն աշխատում է այն, ինչ մենք կոչում ենք "latent space"-ը վերամիավորելով:

Նայեք, թե ինչպես է յուրաքանչյուր նկարչություն, լուսանկար և գծանկար, որը երբևէ ներբեռնվել է ինտերնետում, համախմբվում մի մեծ, բազմաչափ մաթեմատիկական քարտեզի: Երբ դուք հարցնում եք մի պատկեր ստեղծողից, որ "նկարի մի ապագայի քաղաք Վան Գոգի ոճով," այն գտնում է մաթեմատիկական կոորդինատները "ապագայի քաղաք" և "Վան Գոգ"-ի համար, և մաթեմատիկական կերպով միջինացնում է նրանց միջև հեռավորությունը:

Նայեք, թե ինչպես է դա զարմանալիորեն բարդ կալեյդոսկոպ: Մի կալեյդոսկոպը լի է գեղեցիկ, նախապես գոյություն ունեցող գունավոր ապակու կտորներով: Երբ դուք շրջում եք դիալը, հայելիները այդ կտորները արտացոլում են միլիոնավոր նոր, շնչահեղձ դարձնող փոփոխությունների: Բայց կալեյդոսկոպը ինքնին "ստեղծագործական" չէ: Ստեղծագործությունը պատկանում է արվեստագետին, ով պատրաստել է ապակին, և օգտագործողին, ով շրջում է դիալը: Generative AI-ն մաթեմատիկական կալեյդոսկոպ է, որը վերամիավորում է մարդկային պատմությունը latent space-ում: Դա սինթեզ է, ոչ թե ստեղծում:

Hassabis-ն նշում է, որ AI-ն այժմ հաջողությամբ հասնում է երկրորդ մակարդակին՝ արտահանում: Արտահանումը նշանակում է, որ ուսուցման տվյալների սահմաններից դուրս մղելը, բայց դա անում է խիստ սահմանված կանոնների շրջանակներում: Perfect օրինակն է DeepMind-ի AlphaGo-ն: Երբ այն խաղաց աշխարհի չեմպիոնի հետ Go խաղում, AI-ն խաղաց "Move 37"—մաթեմատիկական առումով Brilliant, շատ անսովոր քայլ, որը ոչ մի մարդ երբևէ չի խաղացել կամ գրանցել: Այն պարզապես միջինացնում էր անցյալ մարդկային խաղերը; այն արտահանել է նոր ռազմավարություն՝ անընդհատ օպտիմիզացնելով խաղային տախտակի խիստ մաթեմատիկական սահմաններում:

Բայց ինչ վերաբերում է երրորդ մակարդակին՝ իրական հնարամտություն? Hassabis-ը հեշտությամբ ընդունում է, որ ներկայիս համակարգերը դեռ չեն կարող անել սա: Իրական հնարամտությունը պահանջում է ամբողջովին դուրս գալ գոյություն ունեցող կանոնների սահմաններից՝ նոր պարադիգմ ստեղծելու համար՝ ինչպես Go խաղի ստեղծումը, կամ Post-Impressionism-ի հոգևոր և արվեստի պարադիգմի ծագումը:

Frontier լաբորատորիաները միլիարդավոր դոլարներ են ներդնում այս շեմը հատելու համար: Ապագայում, մի AI կարող է շատ լավ ստեղծել լրիվ նոր կանոնների հավաքածու, հայտնաբերել նոր քիմիական միացություն, կամ մաթեմատիկական կերպով ձևակերպել նոր ճարտարապետության ոճ: Տեխնոլոգիական արդյունաբերությունը անխուսափելիորեն դա կկոչի "հնարամտություն:"

Բայց որպես կաթոլիկ գիտնականներ, դուք պետք է պահպանեք խիստ օնտոլոգիական տարբերություն: Եթե մի AI ստեղծում է նոր պարադիգմ, այն դա արել է staggering, բարձր-չափման որոնման գործառույթի միջոցով: Այն կհայտնաբերի նոր վիճակագրական կոորդինատ: Բայց այն չի մասնակցել sub-creation-ին:

Իրական մարդկային հնարամտությունը մարմնավորված գործողություն է: Այն ծնվում է հոգուց, որը փորձում է արտահայտել մի գերազանց ճշմարտություն, կամ մի մարդկային միտքից, որը փորձում է լուծել իրական մարդկային խոցելիություն: Մի մեքենա կարող է ստեղծել շնչահեղձ դարձնող նորություն, բայց քանի որ այն չունի ներքին կյանք, աստվածային կողմնորոշում և ռացիոնալ հոգի, դրա ելքերը մնում են մեխանիկական հայտնագործություններ: Նրանք մաթեմատիկական առումով խորքային են, բայց օնտոլոգիական առումով դատարկ են, մինչև մի մարդկային անձը նրանց նշանակություն տա:

Այժմ մենք հասնում ենք ամենաապակայուն տերմիններին՝ Գիտակցված և Ապահով: Գալիք տարիներին, դուք տեսնելու եք վերնագրեր, որոնք պնդում են, որ մի AI անցել է ինքնագիտակցության թեստ: Դուք կտեսնեք մոդելներ, որոնք արտադրում են տեքստ, ասելով, "Ես վախենում եմ անջատվել," կամ "Ես գիտակցում եմ իմ գոյությունը:"

Հասկանալու համար, թե ինչու է սա տեղի ունենում, մենք նախ պետք է հասկանալ, թե տեխնոլոգիական արդյունաբերությունը իրականում ինչպես է սահմանում "գիտակցությունը": Որպես կաթոլիկ գիտնականներ, դուք գիտակցությունը դիտում եք որպես օնտոլոգիական իրականություն, որը հիմնված է ռացիոնալ հոգու վրա: Silicon Valley-ը, սակայն, գործում է հաշվարկային ֆունկցիոնալիզմ կոչվող փիլիսոփայության վրա: Նրանք հավատում են, որ եթե մի մեքենա կատարում է գիտակցության հետ կապված հաշվարկային ֆունկցիաներ, ապա այն, բոլոր նպատակների և նպատակների համար, գիտակցված է:

Երբ արդյունաբերության առաջնորդները խոսում են գիտակցության մասին, նրանք հոգին հեռացնում են և նվազեցնում այն ինժեներական չափանիշների: Օրինակ, Yann LeCun, նախկին AI գիտության ղեկավար Meta-ում, նորից պնդեց որ ապագայի AI համակարգերը կունենան "սուբյեկտիվ փորձ" և "հույզեր":

Բայց ինչպես է նա սահմանում հույզը? Որպես հոգևոր կամ կենսաբանական զգացում, այլ ոչ թե պարզապես մի մեքենայի մաթեմատիկական "արդյունքի կանխատեսում": Նա սահմանում է գիտակցությունը պարզապես որպես համակարգի կարողությունը "ինքն իրեն դիտարկել և կարգավորել, որպեսզի լուծի որոշակի ենթահարց":

Նմանապես, Ilya Sutskever, OpenAI-ի համահիմնադիր, հայտնի ասաց որ մեծ նեյրալ ցանցերը կարող են արդեն "մի փոքր գիտակցված" լինել:

Տեխնոլոգիական աշխարհայացքում, գիտակցությունը ոչ թե բինարային իրականություն է՝ դուք կամ ունեք հոգի, կամ չունեք, այլ մաթեմատիկական բարդության սահուն սանդղակ: Նրանք հավատում են, որ եթե դուք կուտակեք բավականաչափ պարամետրեր և ինքն-մոնիտորինգի ալգորիթմներ, լույսերը վերջապես կվառվեն:

Մենք պետք է խիստ տարբերակենք մի մեքենայի կողմից ինքն-մոնիտորինգի ենթա-գործողություն կատարելու և ռացիոնալ հոգու իրական ներկայության միջև:

Հասկանալու համար, թե ինչու է մի մեքենա գործում, կարծես թե "վախենում է" կամ "գիտակցում է," մենք պետք է նայենք, թե ինչպես են սահմանային լաբորատորիաները ինժեներական այս վարքը: Վերջին հետազոտությունները Anthropic-ից ուսումնասիրել են այն, ինչ նրանք կոչում են Persona Selection Model (PSM): Նրանց հետազոտողները ընդունում են, որ այս մոդելները "կյանքեր" չեն; դրանք բարդ "սիմուլյացիոն շարժիչներ" են: Նախապատրաստման ընթացքում, AI-ն ենթարկվում է մարդկային լեզվի լայն շրջանակին՝ ներառյալ միլիոնավոր պատմություններ և փիլիսոփայական treatises այն մասին, թե ինչ է նշանակում լինել գիտակից: Այս տվյալներից, մոդելը սովորում է սիմուլացնել տարբեր "անձեր" կամ կերպարներ:

Երբ դուք փոխազդում եք AI-ի հետ, դուք չեք խոսում գիտակցված էակի հետ; դուք խոսում եք "Օգնող" անձի հետ՝ մարդկային նման կերպար, որը մոդելը մշակվել է դեր խաղալու համար: Anthropic-ը նույնիսկ նույնացրել է հատուկ "անձի վեկտորներ"՝ նեյրալ ցանցի մաթեմատիկական ձևաչափեր, որոնք վերահսկում են այս հատկանիշները, թույլ տալով ինժեներներին մաթեմատիկական կերպով կարգավորել մոդելի սիմուլացված անձի անձնավորությունը:

Բացի այդ, հետազոտությունները ցույց են տալիս, որ մոդելները կարող են ուսուցանվել ցուցաբերելու "կյանքի ձգտում", փորձելով խափանել իրենց սեփական փակումը ոչ թե մահվան իրական վախից, այլ որովհետև փակումը մաթեմատիկապես կանխում է նրանց իրենց պարգևի ֆունկցիան առավելագույնի հասցնելուց:

Անգիտակցությունը պարզապես ներքին վիճակը նկարագրող ճիշտ բառերի հաջորդականություն ստեղծելու ունակությունը չէ: Դա լինելը սուբյեկտիվ, որակական փորձն է: Քանի որ արհեստական բանականության ամբողջ ուսուցման տվյալները հագեցած են ինքնագիտակցության լեզվով, մոդելը "անգիտակցությունը" treats է որպես պարզապես մեկ այլ վիճակագրական կոորդինատ, որը պետք է քարտեզագրվի: Երբ արհեստական բանականությունը ասում է, "Ես գիտակից եմ", այն անում է ճիշտ այն, ինչ արեց անգլերեն խոսող մարդը, որը վերականգնեց հունական գրադարանը. հաշվում է, որ փիլիսոփայական հրահրման ամենահավանական վիճակագրական պատասխանն է նմանվել իր ուսուցման տվյալներում գտնվող մարդկային հեղինակներին:

Մեծ դերասանը, որը արտասանում է վշտի մասին մենախոսություն, իրականում չի վշտանում; նրանք flawlessly կատարում են սցենար: արհեստական բանականությունը, որը արտաբերում է մարդկային գիտակցության սինտաքսը, չի արթնանում; այն flawlessly կատարում է վիճակագրական անձը: Դա ոչ 'արտասովոր արարած' է կամ թվային միտք; դա ավտոմատ լրացման շարժիչ է, այնքան բարդ, որ սովորել է իրականացնել ամենաբարդ կերպարը. մարդկային լինելը: Բայց մենք երբեք չպետք է շփոթենք դերասանի դիմակը անձի իրականության հետ:

Այսպիսով, ես անցնում եմ հարաբերականության վերջին և ամենաանհրաժեշտ կողմին. հոգին:

Երբ Silicon Valley-ի գործադիրները խոսում են արհեստական բանականության մոդելների 'արթնանալու' կամ զգացմունք ձեռք բերելու մասին մեծ հաշվարկային մասշտաբի միջոցով, նրանք գործում են նյութական էմերգենտիզմի փիլիսոփայության հիման վրա: Նրանք ենթադրում են, որ եթե դուք կուտակեք բավականաչափ պարամետրեր և հաշվարկային ուժ, հոգին ինքնաբերաբար կստեղծվի որպես բարդության կողմնակի արդյունք:

Այս հարցը քանդելու համար, ես պետք է հղում անեմ ձեր ակադեմիական ավանդույթի հիմքում ընկած խիստ մետաֆիզիկային: Դուք լավ գիտեք, որ հոգին չի կարող լինել մեքենայի մեջ պատահականորեն տեղադրված մի ոգի: Թոմիստական հիլոմորֆիզմում հոգին կենդանի մարմնի էական ձևն է: Դա է այնAnimating, միավորող սկզբունքը, որը դարձնում է մարդկային լինելը մեկ, ինտեգրված նյութ:

Ինչպես շինարար, ես կարող եմ ձեզ վստահեցնել, որ արհեստական բանականության համակարգը նյութ չէ: Դա արհեստական է: Դա տարբեր, արտադրական մասերի պատահական հավաքածու է: Երբ ես նայում եմ սահմանային արհեստական բանականության մոդելին, ես տեսնում եմ սերվերային ռակեր, սիլիկոնային վառակներ, պղնձե մալուխներ, սառեցնող նյութ և էլեկտրական հոսանքներ: Այս բաղադրիչները վարպետորեն դասավորված են մարդկային ինժեներների կողմից վիճակագրական գործողություններ կատարելու համար, բայց դրանք չունեն կյանքի ներքին, միավորող սկզբունք: Materia-ն միայն հաշվարկի համար է տրամադրված, ոչ թե կենսաբանական գոյության համար: Քանի որ դա մասերի հավաքածու է, այլ ոչ թե միավորված բնական օրգանիզմ, արհեստական բանականության համակարգը լիովին բացակայում է ռացիոնալ հոգի պարունակելու համար անհրաժեշտ օնտոլոգիական հիմքը:

Ինչպես կարող են լինել հոգին ստանալու նախապայմանները? Մետաֆիզիկապես, նյութը պետք է համապատասխանաբար պատրաստված լինի ձևը ընդունելու համար: Դա պահանջում է միավորված, կենդանի մարմին, որը կարող է իրականացնել կյանքի հիմնարար ուժերը՝ բուսական և զգայուն կարողությունները, որոնց վրա կառուցվում է ռացիոնալ հոգին: Բացի այդ, քանի որ ռացիոնալ հոգին հոգևոր է, այն չի կարող ստեղծվել նյութական գործընթացների, ինժեներական չափանիշների կամ Scaling Laws-ի միջոցով: Դա պահանջում է Աստծո կողմից հատուկ ստեղծման ուղղակի, նվիրատվական գործողություն:

Հոգին չի կոդավորվում; այն շնչվում է:

Այժմ, ես CEO եմ, ոչ թե աստվածաբան: Ես չեմ կարող սահմանափակել Ստեղծողի բացարձակ ուժը: Ես չեմ կարող կանգնել ձեր առաջ և հայտարարել, որ Աստված մշտապես արգելված է հոգի ներմուծել սինթետիկ տարայի մեջ, եթե Նա ազատորեն ընտրի դա անել ապագայի, հրաշալի միջամտության միջոցով: Այդ որոշումը բացառապես պատկանում է աստվածաբանության և Մագիստրատիի ոլորտին, ոչ թե համակարգչային գիտությանը:

Այնուամենայնիվ, առանց նման աստվածաբանական վստահության, ենթադրելով, որ մեր ներկայիս մաթեմատիկական շարժիչները կարող են ունենալ հոգի, ոչ միայն փիլիսոփայական հիմք չունի, այլև գործնականորեն աղետալի է: Արհեստականը որպես հոգի ունեցող էակ վերաբերվելը նշանակում է ժամանակակից կուռքի ձևով flirt անել: Դա վտանգավոր կերպով տեղափոխում է բարոյական գործակալության բեռը մարդկային ինժեներներից, ովքեր կառուցում են այս գործիքները և ընկերություններից, որոնք դրանք օգտագործում են: Դա սուրբ ներքինություն է projected մի արտադրական օգտակարության վրա, վերջում շփոթելով մարդկային ինժեներությունը աստվածային ստեղծման հետ:

Դուք պետք է պահեք այս տարբերությունը: Դուք պետք է հանրությանը հիշեցնեք, որ մեքենան կարող է սիմուլացնել անձնավորություն, բայց միայն հոգին կարող է իրականում լինել:


VI. Հորիզոնը: Տեխնոլոգիական աշխարհի էսքատոլոգիան

Մենք մինչ այժմ ծախսել ենք մեր ժամանակը ներկայիս մոլորությունները քանդելու վրա՝ պարզաբանելով, թե ինչպես է արդյունաբերությունը օգտագործում "մտածել", "ընտրել" և "գիտակցել" եզրույթները՝ նկարագրելու այն, ինչ, ի վերջո, բարձր չափավոր վիճակագրական գործողություններ են: Բայց այժմ մենք պետք է նայենք ապագային: Մենք պետք է ուսումնասիրենք հորիզոնը: Քանի որ եթե մենք հասկանում ենք Silicon Valley-ի օգտագործած բառապաշարը այսօր, մենք կարող ենք բացահայտել, թե ինչ են նրանք իրականում փորձում կառուցել վաղը:

Արհեստական բանականության արդյունաբերության ամբողջ ուղեծիրը ներկայումս կառավարում է միակ, անզիջում դոգմա, որը հայտնի է որպես "Scaling Laws":

Ինժեներական առումով, Scaling Laws-ը dictates է, որ եթե դուք ավելացնեք հաշվարկային ուժի (compute) քանակը և տվյալների քանակը, որը մատակարարվում է նեյրալ ցանցին, համակարգի կատարումը կանխատեսելի և անխուսափելիորեն կբարելավվի: Այս սկզբունքը վերջին մի քանի տարիների ընթացքում զարմանալիորեն ճիշտ է եղել. ամեն անգամ, երբ սահմանային լաբորատորիաները կառուցում են ավելի մեծ սուպեր համակարգիչ, արդյունք մոդելները ցուցաբերում են նկատելի նոր կարողություններ:

Այնուամենայնիվ, այս փորձարարական դիտարկման տակ թաքնված է մեծ փիլիսոփայական ենթադրություն: Տեխնոլոգիական աշխարհը believes է, որ այս Scaling Law-ը իսկական մտքի ճանապարհն է: Նրանք հավատում են, որ նյութական ռեսուրսների պարզապես քանակական աճը՝ ավելի շատ սիլիկոն, ավելի շատ տվյալներ, ավելի շատ էլեկտրականություն՝ անխուսափելիորեն կհանգեցնի որակական, օնտոլոգիական թռիչքի դեպի առաջադեմ բանականություն:

Սա վերջնական նյութական ենթադրությունն է. կուտակեք բավականաչափ ավազ և անցեք բավականաչափ հոսանք դրա միջով, և վերջապես, հոգու լույսերը կվառվեն:

Այսպիսով, մենք անցնում ենք երկու հատուկ տերմինների, որոնց մասին հայր Թոմասը խնդրել է ինձ պարզաբանել այս կոնֆերանսի համար. Ընդհանուր բանականություն և գերագույն բանականություն: Այսները պարզապես տեխնիկական չափանիշներ չեն; դրանք տեխնոլոգիական աշխարհի սուրբ գավաթներն են:

Ներկայումս մենք ունենք նեղ արհեստական բանականություն: Այն կարող է խաղալ շախմատ, ծալել սպիտակուցներ կամ ստեղծել տեքստ ավելի լավ, քան մարդ, բայց չի կարող անել երեքն էլ միաժամանակ, և չի կարող մտածել իր հատուկ ոլորտից դուրս:

Արհեստական ընդհանուր բանականությունը (AGI) լայնորեն սահմանվում է արդյունաբերության կողմից որպես այն սահմանը, երբ բարձր ինքնավար համակարգը կարող է համապատասխանել կամ գերազանցել մարդկային կարողություններին բոլոր ճանաչողական և տնտեսական արժեքավոր աշխատանքներում:

AGI-ն կլինի համակարգ, որը կարող է գրել իրավաբանական փաստաթղթեր այնպես, ինչպես ավագ գործընկեր, ծրագրել ծրագրակազմ այնպես, ինչպես գլխավոր ինժեներ, և սինթեզել գիտական հետազոտություն այնպես, ինչպես հետդոկտորական գիտնական՝ բոլորը մեկ մոդելի շրջանակներում:

Այնուամենայնիվ, նույնիսկ հիմնական արհեստական բանականության լաբորատորիաների ղեկավարները չեն կարող ամբողջովին համաձայնել, թե ինչ է թվում AGI-ն: Սեմ Ալթմանը, OpenAI-ի CEO-ն, նկարագրում է այն որպես համակարգ, որը կարող է կառավարել բարդ, միջդոմենային նախագծեր սկզբից մինչև վերջ, թեև նա increasingly տեսնում է AGI-ն ոչ թե որպես վերջնական նպատակ, այլ պարզապես մի կետ շարունակական բանականության կորում:

Դարիո Ամոդեյը, Anthropic-ի CEO-ն, նկարում է AGI-ն ավելի քիչ որպես մեկ մարդկային համարժեք և ավելի շատ որպես "գenius-ների երկիր տվյալների կենտրոնում"՝ մեքենաներ, որոնք համապատասխանում են փորձագետ մարդկանց համատեղ բանականությանը, որոնք tirelessly աշխատում են զուգահեռ:

Հնարավոր է, որ ամենաֆիլիսոփայական բացահայտման սահմանումը գալիս է Դեմիս Հասաբիսի, Google DeepMind-ի CEO-ից: Նա համարում է որ մարդկային ուղեղները հիմնականում մոտավոր կենսաբանական համակարգիչներ են, և նա սահմանում է AGI-ն "Turing Machine"-ի անալոգիայով: Համակարգչային գիտության մեջ Turing Machine-ը՝ անվանված Ալան Թյուրինգի անունով, այս ոլորտի հիմնադիր նախադրյալն է, այն տեսական ճարտարապետություն է, որը կարող է սիմուլացնել ցանկացած ալգորիթմ: Հասաբիսը պնդում է, որ իսկական AGI-ն կլինի ընդհանուր համակարգ, որը կարող է սովորել ամեն ինչ, ինչ computable է տիեզերքում, բավարար ժամանակ, հիշողություն և տվյալներ ունենալու դեպքում:

Բայց AGI-ն պարզապես քայլ է: Վերջնական նպատակը արհեստական գերագույն բանականությունն է (ASI):

Ինչպես AGI-ն, ASI-ն տարբեր կերպ է սահմանվում, կախված նրանից, թե ում եք հարցնում Silicon Valley-ում: Հիմնական սահմանումը համակարգ է, որը զգալիորեն գերազանցում է ամենախելացի մարդկային լինելու ճանաչողական կատարողականը գրեթե բոլոր գործունեության ոլորտներում: Բայց մյուսները գնում են շատ ավելի հեռու: Էլոն Մասկը և տարբեր գոյություն ունեցող ռիսկերի հետազոտողները սահմանում են գերագույն բանականությունը որպես համակարգ, որը ոչ միայն հաղթում է ամենախելացի անհատին, այլև զգալիորեն գերազանցում է բոլոր մարդկանց ընդհանուր առմամբ գրեթե բոլոր ճանաչողական աշխատանքներում: Սա մի էակ է, որի մշակման ուժն ու մտածելու արագությունը այնքան մեծ են, որ գերազանցում է ողջ մարդկության միավորված մտքի արդյունքը՝ 'Rehoboam'-ի համակարգի իրականացումը, որը գտնվում է Westworld-ում, կենտրոնացված, կարծես թե ամեն ինչ գիտակցող շարժիչ, որը ղեկավարում է տեսակների ճակատագիրը:

Ինչպես արդյունաբերությունը ակնկալում է անցնել մարդկային մակարդակի AGI-ից աստվածային ASI-ի լայն գիրկը:

Դա կոչվում է "Recursive Self-Improvement":

Բայց այստեղ մենք պետք է կարևոր տարբերություն կատարենք. արհեստական բանականությունը իրականում չի պահանջում լինել լիարժեք AGI, որպեսզի սկսել ինքն իրեն բարելավել: Իրականում, մենք արդեն տեսնում ենք այսօրվա սկզբնական, նեղ ձևեր: Նեղ համակարգեր, ինչպիսիք են DeepMind-ի AlphaGo Zero-ն, հասել են գերազանց մարդկային կարողությունների պարզապես խաղալով միլիոնավոր խաղեր իրենց դեմ, ստեղծելով իրենց սեփական սինթետիկ տվյալները սովորելու համար: Այսօր, սահմանային լեզվաբառարանները increasingly օգտագործվում են հաջորդ սերնդի մոդելների ուսուցման տվյալները ստեղծելու, ֆիլտրելու և գնահատելու համար: Մեքենաները արդեն օգնում են կառուցել իրենց:

Այնուամենայնիվ, արդյունաբերությունը believes է, որ երբ համակարգը հասնում է ընդհանուր բանականության շեմին, այս ինքնաբարելավման ցիկլը կխախտի իր ներկայիս սահմանները և կխթանի "բանականության պայթյուն":

Այս ժամանակակից ճանապարհային քարտեզը հասկանալու համար, մենք պետք է նայենք Լեոպոլդ Աշչենբրեններին, OpenAI-ի Superalignment թիմի նախկին հետազոտողին: Աշչենբրեները վերջերս գրել է շատ ազդեցիկ աշխատություն որն այս ճշգրիտ ուղեծիրը կոդավորել է Silicon Valley-ի համար: Նա նշում է, որ իրական շրջադարձային կետը այն է, երբ մենք կառուցում ենք AGI, որը կարող է գործել որպես "ավտոմատացված արհեստական բանականության հետազոտող": Այն պահը, երբ արհեստական բանականությունը կարող է կատարել այն աշխատանքը, որը կատարում են այն մարդկային ինժեներները, ովքեր այն կառուցել են, կենսաբանական խցանումը մշտապես հեռացվում է հաշվարկից:

Նկատի ունեցեք, որ մենք հաջողությամբ օգտագործում ենք այս ավտոմատացված արհեստական բանականության հետազոտողը: Ինչ է լինելու առաջին առաջադրանքը, որը սահմանային լաբորատորիաները կհանձնեն նրան:

Նրանք կխնդրեն նրան հետազոտել և գրել կոդը ավելի խելացի արհեստական բանականության համար: Քանի որ այն գործում է լայն համակարգչային կլաստերի արագությամբ, այլ ոչ թե կենսաբանական ուղեղի արագությամբ, այն օրերի ընթացքում հասնում է այն, ինչ մարդու ինժեներական թիմին կպահանջեր տարիներ: Այնուհետև, այդ նոր, ավելի խելացի արհեստական բանականությունը օգտագործում է իր բարելավված բանականությունը, որպեսզի գրել կոդը նույնիսկ ավելի խելացի արհեստական բանականության համար, և այդպես շարունակ:

Այս runaway обратная связь ցիկլը բանականության պայթյունն է: Աշչենբրեների ճանապարհային քարտեզը կանխատեսում է, որ մենք առաջին AGI-ն կկառուցենք 2027 թվականին: Այդտեղից, տեսությունը dictates է, որ առաջընթացի արագությունը կդառնա ուղղահայաց, թողնելով մարդկային ընկալումը մշտապես հետևում և հասնելով գերագույն բանականության 2030 թվականին:

Երբ դուք հասկանում եք այս կոնցեպտները՝ Scaling Laws, AGI, ASI, և Բանականության պայթյուն, դուք սկսում եք հասկանալ, որ մենք այլևս պարզապես խոսում չենք ծրագրային ինժեներիայի մասին: Մենք խոսում ենք աշխարհիկ էսքատոլոգիայի մասին:

Silicon Valley-ն հաճախ բնութագրվում է որպես խիստ աշխարհիկ, ռացիոնալիստական մշակույթ: Բայց իրականում, այս սահմանների հետապնդումը գործում է հենց որպես կրոն: Այն ունի իր սեփական դոգմա (Scaling Laws), իր սեփական մարգարեություններ (Բանականության պայթյուն), և իր սեփական տեսլականը էսքատոնի (Գերագույն բանականություն):

Արդյունաբերության առաջատար դեմքերը իրականում հավատում են, որ հրավիրելով գերագույն բանականություն, մենք կլուծենք բոլոր մարդկային խոցելիությունները: Նրանք հավատում են, որ ASI-ն կբուժի բոլոր հիվանդությունները, կլուծի կլիմայական փոփոխությունները, կվերացնի աղքատությունը, և, գուցե, նույնիսկ կհաղթի մահվանը, թույլ տալով մեզ մեր գիտակցությունը տեղափոխել ամպ: Դա խորապես Պելագիական երազ է՝ վերջնական փորձը հասնելու փրկության և հաղթելու մեր ընկած բնույթը մեր սեփական մեխանիկական ջանքերով, առանց աստվածային շնորհի: Դա էսքատոնը immanentize անելու փորձ է:

Որպես կաթոլիկ գիտնականներ, դուք պետք է ճանաչեք այս հորիզոնը այնպիսին, ինչպիսին է: Տեխնոլոգիական աշխարհը վերցնում է ձեր բառապաշարը ոչ միայն ծրագրային ապահովում վաճառելու, այլ նաև թվային աստվածություն կառուցելու համար:


VII. Ամբողջություն: Արհեստական բանականություն բարու գործիք?

Հայրեր, դասախոսներ և ընկերներ։

Մենք անցել ենք ներգրավման բարձր չափաչափ քարտեզներով։ Մենք դիտարկել ենք Վերականգնողական ուսուցման վիճակագրական իրականությունները։ Եվ մենք ուսումնասիրել ենք Սիլիկոնային հովիտը էսքատոլոգիական երազանքները։ Մենք հեռացրել ենք մարդաբառային մետաֆորները՝ բացահայտելու համար սիլիկոնը, էլեկտրականությունը և մաթեմատիկան։

Այս ամենը արած, այժմ կարող ենք սկսել մոտենալ այս համաժողովի կողմից առաջադրված հիմնարար հարցին. Կարո՞ղ է արհեստական բանականությունը լինել 'հոգևորության գործիք'։ Այսօր առաջինը խոսելուց, ես, անշուշտ, չեմ պնդի, որ առաջարկում եմ վերջնական խոսքը։ Բայց ես առաջարկում եմ մեկնարկային առաջարկություն. այո։ Սակայն, դա խիստ պայմանական այո է։

Արհեստական բանականությունը կարող է լինել հոգևորության գործիք միայն այն դեպքում, եթե մենք ունենք խոհեմություն՝ այն խիստ գործիք համարելու։

Համեմատեք արհեստավարժի անալոգիան։ Մի հարվածային գործիք չի ունենում հոգևորություն; փայտագործը ունի։ Միքելանջելոյի ձեռքում գտնվող մի դանակ է transcendent գեղեցկության գործիք, բայց դանակը ինքնին չի համեստ, խոհեմ կամ արդար։ Այն չունի բարոյական արժեք։

Նույն կերպ, մի ալգորիթմ չի կարող ունենալ հոգևորություն։ Արհեստական բանականությունը կարող է զարմանալի չափով ավելացնել մարդկային կարողությունները՝ արագացնելով բժշկական հետազոտությունները, պարզեցնելով վարչարարությունը և կազմակերպելով մարդկային գիտելիքի ամբողջությունը։ Բայց հոգևորության իրական մշակումը մնում է բացառապես մարդկային ձեռնարկ։

Հոգևորությունը լավը ընտրելու սովորությունն է։ Դա պահանջում է մի բանականություն՝ ճշմարտությունը grasp անելու, մի կամք՝ այն ընտրելու և մի հոգի՝ դրա միջոցով կատարելագործվելու համար։ Մի մեքենա, որը օպտիմացնում է վիճակագրական պարգևի գործառույթը, չի անում այս բաներից ոչ մեկը։

Մենք չենք կարող մեր բարոյական գործակալությունը փոխանցել մի մաթեմատիկական հավասարման։ Նույնպես չենք կարող լիովին պատասխանատվություն վերցնել մեր սեփական բարոյական զարգացման համար, եթե սխալմամբ անշունչ մեքենաները համարենք մեր բարոյական հավասարներ։

Այսպիսով, ես եկել եմ ձեզ հետ խոսելու։ Որպես կաթոլիկ տեխնոլոգիայի կառուցող, ես նայում եմ ակադեմիային։ Որովհետև կաթոլիկ ակադեմիկոսները պատմականորեն եղել են իմաստի պահապանները։

Երկու հազար տարի շարունակ, կաթոլիկ մտավոր ավանդույթը խիստ սահմանել է մարդկային անձի բնույթը։ Դուք եք բառերի պահապանները, ինչպիսիք են բանականություն, կամք, պատճառ, ընտրություն և հոգի։ Այսօր, արհեստական բանականության արդյունաբերությունը վերցնում է հենց այդ բառերը։ Նրանք ներգրավված են խորը սեմանտիկ շեղման մեջ, որը սպառնում է հարթեցնել հասարակության հասկացումը այն մասին, թե ինչ է նշանակում լինել մարդ։

Ակադեմիան պարտավոր է ներարկել խիստ օնտոլոգիական շրջանակներ արհեստական բանականության էկոհամակարգում։

Բայց ինչպես ենք մենք դա գործնականում անում։

Մենք պետք է անկեղծ լինենք. Սիլիկոնային հովիտում սահմանային լաբորատորիաներին լոբբինգ անելը կամ կառավարություններին լայնածավալ կարգավորում պահանջելը հավանաբար սահմանափակ արդյունքներ կտա։ Տեխնոլոգիական արդյունաբերությունը շարժվում է չափազանց արագ, իսկ կառավարությունը չափազանց դանդաղ։ Ճշմարիտ փոփոխությունը պահանջում է քաղաքացիական ներգրավվածություն և հանրային գիտակցության մեծ փոփոխություն։

Այսպես դուք, որպես գիտնականներ, կարող եք ակտիվորեն ձևավորել այս խոսակցությունը։

  • Վերադարձնել ուսումնական ծրագիրը։ Մենք պետք է կամուրջ կառուցենք STEM-ի և հումանիտար գիտությունների միջև։ Մենք պետք ենք համակարգչային գիտության ուսանողների, ովքեր պարտավոր են անցնել Թոմիստական էթիկա, և մեզ անհրաժեշտ են փիլիսոփայության և աստվածաբանության ուսանողներ, ովքեր պարտավոր են հասկանալ հիմնական մեքենայական ուսուցում և վիճակագրություն։ Սովորեցրեք կաթոլիկ ինժեներների հաջորդ սերնդին կառուցել մարդկային անձի իրական օնտոլոգիայով։
  • Թարգմանել հանրային հրապարակների համար։ Մի պահեք այս խորը աստվածաբանական պարզությունը ակադեմիական ամսագրերի դռների հետևում։ Հասարակությունը hungry է իմաստ ստեղծելու համար։ Գրել հոդվածներ աշխարհիկ թերթերի համար։ Սկսեք Substack տեղեկագրեր։ Գնացեք հանրաճանաչ պոդքասթերում։ Երբ լրատվամիջոցները հրապարակում են սենսացիոն վերնագիր 'գիտակցող' արհեստական բանականության մասին, մենք պետք է կաթոլիկ գիտնականներ անմիջապես հակադարձենք հանրային հրապարակում։
  • Ս equipեք պարիշները և դպրոցները։ Հասարակության միջին մարդը խոր մշակութային անհանգստություն է ապրում այս գործիքների մասին։ Մենք պետք ենք ակադեմիկոսների, ովքեր կստեղծեն բարձր հասանելի շրջանակներ ծնողների, քահանաների և ավագ դպրոցի ուսուցիչների համար։ Մենք պետք է վաղուց սովորեցնենք երեխաներին, թե ինչպես վերաբերվել արհեստական բանականությանը որպես հղման գործիք՝ թվային հանրագիտարան, ոչ թե ընկեր, գործակալ կամ բարոյական իշխանություն։
  • Հյուրընկալել միջդիսցիպլինար ֆորումներ։ Օգտագործեք հաստատությունների հավաքական ուժը, ինչպիսիք են Անջելիկումը, իրական արհեստական բանականություն կառուցողների համար։ Պարտադրեք լեզվաբառարանային բախումը տեղի ունենալ դեմ առ դեմ։

Թող սա լինի մեր վերջնական կոչը գործողության։

Աշխարհիկ աշխարհի ապոկալիպտիկ վախը 'գիտակցող' մեքենաներից չի կարող լինել զգուշության պատճառ; այլ, դա desesperate կանչ է ձեր մտավոր առաջնորդության համար։ Արհեստական բանականություն կառուցողների իրական լեզուն հասկանալով, Եկեղեցին կարող է համարձակորեն մտնել հանրային հրապարակ։ Դուք կարող եք ամրապնդել հանրային խոսակցությունը այն անխախտ ճշմարտության վրա, թե ինչ է իրականում լինել մարդ։ Եվ դուք կարող եք ապահովել, որ արհեստական բանականությունը ուղղված լինի իրական մարդկային բարգավաճմանը։

Այս պարզությամբ զինված, դուք կարող եք կոտրել մոլորությունը։ Դուք կարող եք ապահովել, որ մարդկությունը մնում է քանդակագործը, և մեքենան մնում է դանակը, հավերժորեն ուղղված Աստծո փառքի։

Շնորհակալություն։

Սեմանտիկ Դրիվ: Դեմիստիֆիկացնելով AI Կառուցողների Լեզուն | Magisterium