Ինչ կարող է իրականում անել արհեստական ինտելեկտն այսօր
Ինչ կարող է իրականում անել արհեստական ինտելեկտն այսօր
Anonim

Սփոյլերի ահազանգ․ մեքենաների ապստամբությանը դեռ երկար ժամանակ կա։

Ինչ կարող է իրականում անել արհեստական ինտելեկտն այսօր
Ինչ կարող է իրականում անել արհեստական ինտելեկտն այսօր

Երբ Իլոն Մասկը ներկայացնում է մարդանման Tesla Bot ռոբոտը, թվում է, որ նոր գիտական հեղափոխությունը հենց անկյունում է: Մի փոքր ավելին, և արհեստական ինտելեկտը (AI) կգերազանցի մարդուն, իսկ մեքենաները կփոխարինեն մեզ աշխատանքի ժամանակ: Այնուամենայնիվ, պրոֆեսորներ Գարի Մարկուսին և Էռնեստ Դևիսին, որոնք երկուսն էլ AI-ի հայտնի փորձագետներ են, խնդրում են չշտապել նման եզրակացություններ անել:

Արհեստական ինտելեկտի Reboot-ում հետազոտողները բացատրում են, թե ինչու է ժամանակակից տեխնոլոգիան հեռու իդեալական լինելուց: «Alpina PRO» հրատարակչության թույլտվությամբ Lifehacker-ը հրապարակում է հատված առաջին գլխից։

Այս պահին հսկայական անջրպետ կա՝ իսկական անդունդ մեր հավակնությունների և արհեստական ինտելեկտի իրականության միջև: Այս անջրպետն առաջացել է երեք կոնկրետ խնդիրների չլուծված լինելու պատճառով, որոնցից յուրաքանչյուրի հետ պետք է ազնվորեն զբաղվել։

Դրանցից առաջինն այն է, ինչ մենք անվանում ենք դյուրահավատություն, որը հիմնված է այն փաստի վրա, որ մենք՝ մարդիկ, իրականում չենք սովորել տարբերել մարդկանց և մեքենաների միջև, և դա հեշտացնում է մեզ հիմարացնելը: Մենք խելամտությունը վերագրում ենք համակարգիչներին, քանի որ մենք ինքներս զարգացել և ապրել ենք մարդկանց մեջ, ովքեր իրենց գործողությունները հիմնականում հիմնում են վերացականության վրա, ինչպիսիք են գաղափարները, համոզմունքները և ցանկությունները: Մեքենաների վարքագիծը հաճախ մակերեսորեն նման է մարդկանց վարքագծին, ուստի մենք մեքենաներին արագ վերագրում ենք նույն տեսակի հիմնական մեխանիզմները, նույնիսկ եթե մեքենաները չունեն դրանք:

Մենք չենք կարող չմտածել մեքենաների մասին ճանաչողական առումով («Իմ համակարգիչը կարծում է, որ ես ջնջել եմ իմ ֆայլը»), անկախ նրանից, թե որքան պարզ են այն կանոնները, որոնց իրականում հետևում են մեքենաները: Բայց եզրակացությունները, որոնք արդարացնում են իրենց, երբ կիրառվում են մարդկանց վրա, կարող են լիովին սխալ լինել, երբ կիրառվում են արհեստական ինտելեկտի ծրագրերի համար: Հարգելով սոցիալական հոգեբանության հիմնական դրույթը, մենք դա անվանում ենք հիմնարար վավերականության սխալ:

Այս սխալի ամենավաղ դեպքերից մեկը տեղի ունեցավ 1960-ականների կեսերին, երբ Էլիզա անունով չաթ-բոտը որոշ մարդկանց համոզեց, որ նա իսկապես հասկանում է այն, ինչ նրանք ասում էին իրեն: Իրականում, Էլիզան պարզապես վերցրեց հիմնաբառեր, կրկնեց այն, ինչ վերջինն ասաց իրեն, և փակուղային իրավիճակում նա դիմեց սովորական խոսակցական հնարքների, ինչպիսին է «Պատմիր ինձ քո մանկության մասին»: Եթե դուք նշեիք ձեր մորը, նա ձեզ կհարցներ ձեր ընտանիքի մասին, թեև նա գաղափար չուներ, թե իրականում ինչ է ընտանիքը կամ ինչու է այն կարևոր մարդկանց համար: Դա ընդամենը հնարքների հավաքածու էր, այլ ոչ թե իրական խելքի ցուցադրություն:

Չնայած այն հանգամանքին, որ Էլիզան ընդհանրապես չէր հասկանում մարդկանց, շատ օգտատերեր խաբվեցին նրա հետ երկխոսություններից։ Ոմանք ժամեր էին ծախսում ստեղնաշարով արտահայտություններ մուտքագրելու վրա, այսպես զրուցում Էլիզայի հետ, բայց սխալ մեկնաբանելով չաթբոտի հնարքները, թութակի խոսքը շփոթելով օգտակար, անկեղծ խորհուրդների կամ կարեկցանքի համար:

Joseph Weisenbaum Ստեղծող Eliza.

Մարդիկ, ովքեր լավ գիտեին, որ մեքենայի հետ են խոսում, շուտով մոռացան այս փաստը, ինչպես թատերասերները որոշ ժամանակ մի կողմ թողեցին իրենց անհավատությունը և մոռանան, որ իրենց ականատես արարքը իրական կոչվելու իրավունք չունի։

Էլիզայի զրուցակիցները հաճախ թույլտվություն էին պահանջում համակարգի հետ մասնավոր զրույցի համար և զրույցից հետո պնդում էին, չնայած իմ բոլոր բացատրություններին, որ մեքենան իսկապես հասկանում է իրենց:

Այլ դեպքերում իսկության գնահատման սխալը կարող է ճակատագրական լինել բառի ուղիղ իմաստով։ 2016-ին Tesla-ի ավտոմատացված մեքենայի սեփականատերերից մեկն այնքան էր ապավինում ավտոպիլոտային ռեժիմի թվացյալ անվտանգությանը, որ (ըստ պատմությունների) նա ամբողջովին խորասուզվեց Հարի Փոթերի ֆիլմերը դիտելու մեջ՝ թողնելով մեքենան ամեն ինչ ինքնուրույն անել:

Ամեն ինչ լավ անցավ, մինչև ինչ-որ պահի վատացավ: Հարյուրավոր կամ նույնիսկ հազարավոր մղոններ քշելով առանց վթարի, մեքենան (բառի բոլոր իմաստով) բախվեց անսպասելի խոչընդոտի. սպիտակ բեռնատարը հատեց մայրուղին, իսկ Տեսլան խուժեց հենց կցասայլի տակ՝ տեղում սպանելով մեքենայի տիրոջը։. (Թվում էր, թե մեքենան մի քանի անգամ զգուշացրել է վարորդին վերահսկողության տակ առնելու համար, բայց վարորդը, կարծես, չափազանց հանգստացած էր արագ արձագանքելու համար):

Այս պատմության բարոյականությունը պարզ է. այն փաստը, որ սարքը կարող է մեկ-երկու պահ (և նույնիսկ վեց ամիս) «խելացի» թվալ, ամենևին չի նշանակում, որ այն իսկապես այդպես է կամ կարող է դիմակայել այն բոլոր հանգամանքներին, որոնցում. մարդ համարժեք կարձագանքի:

Երկրորդ խնդիրը մենք անվանում ենք արագ առաջընթացի պատրանք. սխալմամբ առաջընթացը արհեստական ինտելեկտում, որը կապված է հեշտ խնդիրների լուծման հետ, առաջընթացի համար, որը կապված է իսկապես բարդ խնդիրների լուծման հետ: Սա, օրինակ, տեղի ունեցավ IBM Watson համակարգի հետ. նրա առաջընթացը Jeopardy խաղում: թվում էր, թե շատ խոստումնալից էր, բայց իրականում պարզվեց, որ համակարգը շատ ավելի հեռու էր մարդկային լեզուն հասկանալուց, քան ենթադրում էին մշակողները:

Հնարավոր է, որ DeepMind-ի AlphaGo ծրագիրը գնա նույն ճանապարհով։ Գոյ խաղը, ինչպես շախմատը, իդեալականացված տեղեկատվական խաղ է, որտեղ երկու խաղացողներն էլ կարող են ցանկացած պահի տեսնել ամբողջ խաղատախտակը և կոպիտ ուժով հաշվարկել քայլերի հետևանքները:

Շատ դեպքերում, իրական կյանքում, ոչ ոք ոչինչ չգիտի լիակատար որոշակիությամբ. մեր տվյալները հաճախ թերի են կամ աղավաղված:

Նույնիսկ ամենապարզ դեպքերում անորոշությունը շատ է: Երբ որոշում ենք՝ գնալ բժշկի մոտ ոտքով, թե՞ մետրոյով նստել (քանի որ օրը ամպամած է), մենք հստակ չգիտենք, թե որքան ժամանակ կպահանջվի սպասել մետրոյի գնացքին, արդյոք գնացքը խրվում է ճանապարհին, թե ոչ։ մենք կխոթենք վագոնը, ինչպես ծովատառեխը տակառի մեջ, կամ դրսում անձրևի տակ կթրջվենք՝ չհամարձակվելով մետրոյով նստել, և ինչպես կարձագանքի բժիշկը մեր ուշացմանը։

Մենք միշտ աշխատում ենք մեր ունեցած տեղեկատվության հետ։ Միլիոնավոր անգամ խաղալով իր հետ Go-ի հետ՝ DeepMind AlphaGo համակարգը երբեք չի առնչվել անորոշության հետ, նա պարզապես չգիտի, թե ինչ է տեղեկատվության պակասը կամ դրա անավարտությունն ու անհամապատասխանությունը, էլ չեմ խոսում մարդկային փոխազդեցության բարդությունների մասին:

Կա ևս մեկ պարամետր, որը ստիպում է մտքի խաղերը շատ տարբերվել իրական աշխարհից, և դա կրկին կապված է տվյալների հետ: Նույնիսկ բարդ խաղերը (եթե կանոնները բավականաչափ խիստ են) կարելի է գրեթե կատարելապես մոդելավորել, այնպես որ արհեստական ինտելեկտի համակարգերը, որոնք խաղում են դրանք, հեշտությամբ կարող են հավաքել հսկայական քանակությամբ տվյալներ, որոնք անհրաժեշտ են մարզելու համար: Այսպիսով, Go-ի դեպքում մեքենան կարող է նմանակել խաղը մարդկանց հետ՝ պարզապես խաղալով իր դեմ. նույնիսկ եթե համակարգին անհրաժեշտ են տերաբայթ տվյալներ, այն ինքն է ստեղծելու:

Այսպիսով, ծրագրավորողները կարող են ձեռք բերել ամբողջովին մաքուր մոդելավորման տվյալներ՝ քիչ կամ առանց ծախսերի: Ընդհակառակը, իրական աշխարհում բացարձակապես մաքուր տվյալներ գոյություն չունեն, անհնար է դրանք մոդելավորել (քանի որ խաղի կանոնները անընդհատ փոխվում են), և առավել ևս դժվար է փորձնական եղանակով հավաքել համապատասխան տվյալներ շատ գիգաբայթներով։ և սխալ.

Իրականում մենք ունենք ընդամենը մի քանի փորձ՝ փորձարկելու տարբեր ռազմավարություններ։

Մենք չենք կարողանում, օրինակ, կրկնել բժշկի այցը 10 միլիոն անգամ՝ աստիճանաբար կարգավորելով որոշումների պարամետրերը յուրաքանչյուր այցելությունից առաջ, որպեսզի կտրուկ բարելավենք մեր վարքագիծը տրանսպորտի ընտրության առումով։

Եթե ծրագրավորողները ցանկանում են ռոբոտ պատրաստել տարեցներին օգնելու համար (ասենք՝ հիվանդներին քնեցնելու համար), ապա յուրաքանչյուր մանրուք կարժենա իրական գումար և իրական մարդկային ժամանակ. սիմուլյացիոն խաղերի միջոցով բոլոր անհրաժեշտ տվյալները հավաքելու միջոց չկա: Նույնիսկ վթարի թեստի կեղծամները չեն կարող փոխարինել իրական մարդկանց:

Անհրաժեշտ է տվյալներ հավաքել իրական տարեցների մասին՝ տարեցների շարժումների տարբեր հատկանիշներով, տարբեր տեսակի մահճակալների, տարբեր տեսակի գիշերազգեստների, տարբեր տեսակի տների վրա, և այստեղ դուք չեք կարող սխալվել, քանի որ մարդուն գցելը նույնիսկ մի քանի հեռավորության վրա: անկողնուց սանտիմետր հեռավորությունը աղետ կլինի: Այս դեպքում վտանգված է որոշակի առաջընթաց (առայժմ ամենատարրականը) այս ոլորտում ձեռք է բերվել նեղ արհեստական ինտելեկտի մեթոդների կիրառմամբ։ Մշակվել են համակարգչային համակարգեր, որոնք խաղում են գրեթե լավագույն մարդկային խաղացողների մակարդակով Dota 2 և Starcraft 2 վիդեոխաղերում, որտեղ ցանկացած պահի մասնակիցներին ցուցադրվում է խաղի աշխարհի միայն մի մասը և, հետևաբար, յուրաքանչյուր խաղացող բախվում է խնդրին. տեղեկատվության պակասի խնդիր, որը Կլաուզևիցի թեթև ձեռքով կոչվում է «անհայտի մառախուղ»։ Այնուամենայնիվ, մշակված համակարգերը դեռևս մնում են շատ նեղ կենտրոնացված և անկայուն շահագործման մեջ: Օրինակ, «AlphaStar» ծրագիրը, որը խաղում է Starcraft 2-ում, սովորել է միայն մեկ կոնկրետ մրցավազք տարբեր կերպարներից, և այս զարգացումներից գրեթե ոչ մեկը հնարավոր չէ խաղալ, ինչպես ցանկացած այլ մրցավազք: Եվ, իհարկե, հիմքեր չկան ենթադրելու, որ այս ծրագրերում կիրառվող մեթոդները հարմար են իրական կյանքում շատ ավելի բարդ իրավիճակներում հաջող ընդհանրացումներ անելու համար: իրական կյանքեր. Ինչպես IBM-ը հայտնաբերել է ոչ թե մեկ, այլ արդեն երկու անգամ (նախ՝ շախմատում, իսկ հետո՝ վտանգի դեպքում), փակ աշխարհի խնդիրներում հաջողությունն ամենևին էլ չի երաշխավորում հաջողություն բաց աշխարհում:

Նկարագրված անդունդի երրորդ շրջանը հուսալիության գերագնահատում է։ Կրկին ու կրկին մենք տեսնում ենք, որ հենց որ մարդիկ արհեստական ինտելեկտի օգնությամբ լուծում են գտնում ինչ-որ խնդրի համար, որը կարող է որոշ ժամանակ աշխատել առանց ձախողումների, նրանք ինքնաբերաբար ենթադրում են, որ վերանայման (և մի փոքր ավելի մեծ քանակությամբ տվյալների) դեպքում ամեն ինչ կաշխատի հուսալի.ժամանակ. Բայց դա պարտադիր չէ, որ այդպես լինի։

Կրկին վերցնում ենք առանց վարորդի մեքենաներ։ Համեմատաբար հեշտ է ստեղծել ինքնավար մեքենայի ցուցադրություն, որը ճիշտ կշարունակի վարել հստակ գծանշված գոտիով հանգիստ ճանապարհով. սակայն, մարդիկ կարողացել են դա անել ավելի քան մեկ դար: Այնուամենայնիվ, շատ ավելի դժվար է ստիպել այս համակարգերին աշխատել դժվար կամ անսպասելի հանգամանքներում:

Ինչպես մեզ նամակում ասաց Միսի Քամինգսը, Դյուկի համալսարանի Մարդկանց և ինքնավարության լաբորատորիայի տնօրենը (և ԱՄՆ ռազմածովային նավատորմի նախկին օդաչու), հարցն այն չէ, թե քանի մղոն կարող է անցնել առանց վարորդի մեքենան առանց վթարի: որոնց այս մեքենաները կարողանում են հարմարվել փոփոխվող իրավիճակներին: Ըստ նրա Միսի Քամինգսի, 2018 թվականի սեպտեմբերի 22-ին էլեկտրոնային նամակ գրեք հեղինակներին:, ժամանակակից կիսաինքնավար մեքենաները «սովորաբար գործում են միայն շատ նեղ պայմաններում, որոնք ոչինչ չեն ասում այն մասին, թե ինչպես կարող են աշխատել ոչ իդեալական պայմաններում»:

Լիովին վստահելի տեսք ունենալ Ֆենիքսում միլիոնավոր փորձնական մղոններով, չի նշանակում լավ հանդես գալ Բոմբեյում մուսսոնի ժամանակ:

Այս հիմնարար տարբերությունն այն բանի միջև, թե ինչպես են ինքնավար տրանսպորտային միջոցներն իրենց պահում իդեալական պայմաններում (օրինակ՝ արևային օրերը արվարձանների բազմաշերտ ճանապարհների վրա) և այն, ինչ նրանք կարող են անել ծայրահեղ պայմաններում, կարող է հեշտությամբ դառնալ հաջողության և ձախողման խնդիր մի ամբողջ ոլորտի համար:

Էքստրեմալ պայմաններում ինքնավար վարման վրա այդքան քիչ շեշտադրումով, և ներկայիս մեթոդաբանությունը չի մշակվել այն ուղղությամբ, որպեսզի ապահովի, որ ավտոպիլոտը ճիշտ կաշխատի այնպիսի պայմաններում, որոնք նոր են սկսում իրական համարվել, շուտով կարող է պարզվել, որ միլիարդավոր դոլարներ ծախսվել են ինքնակառավարվող մեքենաների ստեղծման մեթոդների վրա, որոնք պարզապես չեն կարողանում ապահովել մարդու նման մեքենա վարելու հուսալիություն:Հնարավոր է, որ մեզ անհրաժեշտ տեխնիկական վստահության մակարդակին հասնելու համար պահանջվեն ներկայիս մոտեցումներից սկզբունքորեն տարբերվող մոտեցումներ։

Իսկ մեքենաները շատ նմանների միայն մեկ օրինակ են։ Արհեստական ինտելեկտի վերաբերյալ ժամանակակից հետազոտությունների ընթացքում դրա հուսալիությունը համաշխարհային մասշտաբով թերագնահատվել է: Սա մասամբ պայմանավորված է նրանով, որ այս ոլորտում ընթացիկ զարգացումների մեծ մասը ներառում է այնպիսի խնդիրներ, որոնք խիստ հանդուրժող են սխալների նկատմամբ, ինչպիսիք են գովազդի առաջարկը կամ նոր ապրանքների առաջմղումը:

Իսկապես, եթե մենք ձեզ առաջարկենք հինգ տեսակի ապրանք, և ձեզ դուր է գալիս դրանցից միայն երեքը, ապա ոչ մի վնաս չի լինի: Բայց ապագայի համար AI-ի մի շարք կարևոր կիրառություններում, ներառյալ առանց վարորդի մեքենաները, տարեցների խնամքը և առողջապահական պլանավորումը, մարդու նման հուսալիությունը կարևոր կլինի:

Ոչ ոք չի գնի տնային ռոբոտ, որը կարող է ապահով կերպով տանել ձեր տարեց պապիկին քնելու հինգից միայն չորս անգամ:

Նույնիսկ այն առաջադրանքներում, որտեղ ժամանակակից արհեստական ինտելեկտը տեսականորեն պետք է հայտնվի հնարավոր լավագույն լույսի ներքո, պարբերաբար լուրջ ձախողումներ են տեղի ունենում, երբեմն էլ շատ ծիծաղելի տեսք ունեն: Տիպիկ օրինակ. համակարգիչները, սկզբունքորեն, արդեն բավականին լավ սովորել են, թե ինչպես ճանաչել այն, ինչ կա (կամ տեղի է ունենում) այս կամ այն պատկերում:

Երբեմն այս ալգորիթմները հիանալի են աշխատում, բայց հաճախ դրանք բացարձակապես անհավանական սխալներ են առաջացնում: Եթե դուք պատկեր եք ցույց տալիս ավտոմատացված համակարգին, որը ստեղծում է ենթագրեր առօրյա տեսարանների լուսանկարների համար, դուք հաճախ ստանում եք պատասխան, որը զարմանալիորեն նման է նրան, ինչ կգրեր մարդը. Օրինակ, ստորև բերված տեսարանի համար, որտեղ մի խումբ մարդիկ ֆրիսբի են խաղում, Google-ի բարձր հրապարակված ենթագրերի ստեղծման համակարգը տալիս է այն ճիշտ անվանումը:

Նկար 1.1. Երիտասարդների խումբ, ովքեր խաղում են ֆրիսբի (հավանական լուսանկարի վերնագիր, ինքնաբերաբար ստեղծվել է AI-ի կողմից)
Նկար 1.1. Երիտասարդների խումբ, ովքեր խաղում են ֆրիսբի (հավանական լուսանկարի վերնագիր, ինքնաբերաբար ստեղծվել է AI-ի կողմից)

Բայց հինգ րոպե անց նույն համակարգից հեշտությամբ կարող եք բացարձակ անհեթեթ պատասխան ստանալ, ինչպես եղավ, օրինակ, այս ճանապարհային նշանով, որի վրա ինչ-որ մեկը կպցրեց կպչուն պիտակներ. Համակարգի ստեղծողները չեն բացատրել, թե ինչու է այս սխալը տեղի ունեցել:, սակայն նման դեպքերը հազվադեպ չեն։ Կարելի է ենթադրել, որ այս կոնկրետ դեպքում համակարգը դասակարգել է լուսանկարը (գուցե գույնի և հյուսվածքի առումով) որպես մյուս նկարներին (որից նա սովորել է), պիտակավորված որպես «շատ ուտելիքներով և խմիչքներով լցված սառնարան»: Բնականաբար, համակարգիչը չհասկացավ (ինչը մարդը հեշտությամբ կարող էր հասկանալ), որ նման մակագրությունը տեղին կլինի միայն մի մեծ ուղղանկյուն մետաղական տուփի դեպքում, որի ներսում տարբեր (և նույնիսկ ոչ բոլոր) առարկաներ կան։ այս տեսարանը «սառնարան է՝ շատ ուտելիքներով և խմիչքներով»:

Բրինձ. 1.2. Սառնարան՝ լցված բազմաթիվ սննդամթերքներով և խմիչքներով (բոլորովին անհավանական վերնագիր, ստեղծված նույն համակարգով, ինչ վերևում)
Բրինձ. 1.2. Սառնարան՝ լցված բազմաթիվ սննդամթերքներով և խմիչքներով (բոլորովին անհավանական վերնագիր, ստեղծված նույն համակարգով, ինչ վերևում)

Նմանապես, առանց վարորդի մեքենաները հաճախ ճիշտ նույնացնում են այն, ինչ «տեսնում են», բայց երբեմն թվում է, թե նրանք անտեսում են ակնհայտը, ինչպես Tesla-ի դեպքում, որը պարբերաբար բախվում էր կայանված հրշեջ մեքենաներին կամ շտապօգնության մեքենաներին ավտոպիլոտով: Նման կույր կետերը կարող են նույնիսկ ավելի վտանգավոր լինել, եթե դրանք տեղակայված են էլեկտրական ցանցերը կառավարող համակարգերում կամ պատասխանատու են հանրային առողջության մոնիտորինգի համար:

Հավակնությունների և արհեստական ինտելեկտի իրականության միջև անջրպետը կամրջելու համար մեզ անհրաժեշտ է երեք բան. վերջապես զարգացման նոր ռազմավարության մեքենայական մտածողություն:

Քանի որ արհեստական ինտելեկտի վրա դրված խաղադրույքները իսկապես մեծ են աշխատատեղերի, անվտանգության և հասարակության կառուցվածքի առումով, մեզ բոլորիս՝ արհեստական ինտելեկտի մասնագետներին, հարակից մասնագիտություններին, սովորական քաղաքացիներին և քաղաքական գործիչներին, հրատապ կարիք կա հասկանալու իրերի իրական վիճակը: այս ոլորտում, որպեսզի սովորեն քննադատաբար գնահատել այսօրվա արհեստական ինտելեկտի զարգացման մակարդակն ու բնույթը:

Ինչպես նորություններով և վիճակագրությամբ հետաքրքրված քաղաքացիների համար կարևոր է հասկանալ, թե որքան հեշտ է մարդկանց մոլորեցնել բառերով և թվերով, այնպես էլ այստեղ կա հասկանալու ավելի կարևոր ասպեկտ, որպեսզի կարողանանք պարզել, թե որտեղ է արհեստական ինտելեկտը: միայն գովազդը, բայց որտեղ է դա իրական; այն, ինչ նա կարողանում է անել հիմա, և ինչ չգիտի, թե ինչպես և, հավանաբար, չի սովորի։

Ամենակարևորը գիտակցելն է, որ արհեստական ինտելեկտը ոչ թե կախարդանք է, այլ ընդամենը տեխնիկայի և ալգորիթմների մի շարք, որոնցից յուրաքանչյուրն ունի իր ուժեղ և թույլ կողմերը, հարմար է որոշ առաջադրանքների համար և հարմար չէ մյուսներին: Այս գիրքը գրելու հիմնական պատճառներից մեկն այն է, որ արհեստական ինտելեկտի մասին մեր կարդացածի մեծ մասը մեզ թվում է բացարձակ ֆանտազիա, որն առաջացել է արհեստական ինտելեկտի գրեթե կախարդական ուժի նկատմամբ անհիմն վստահությունից:

Մինչդեռ այս հորինվածքը ոչ մի կապ չունի ժամանակակից տեխնոլոգիական հնարավորությունների հետ։ Ցավոք, լայն հանրության շրջանում արհեստական ինտելեկտի քննարկումը ենթարկվել և մնում է շահարկումների և չափազանցությունների մեծ ազդեցության վրա. մարդկանց մեծ մասը չի պատկերացնում, թե որքան դժվար է ստեղծել համընդհանուր արհեստական ինտելեկտ:

Եկեք պարզաբանենք հետագա քննարկումը։ Չնայած արհեստական ինտելեկտի հետ կապված իրողությունների պարզաբանումը մեզանից լուրջ քննադատություն կպահանջի, մենք ինքներս ոչ մի կերպ արհեստական ինտելեկտի հակառակորդ չենք, մեզ իսկապես դուր է գալիս տեխնոլոգիական առաջընթացի այս կողմը։ Մենք ապրել ենք մեր կյանքի զգալի մասը՝ որպես այս ոլորտի մասնագետներ և ցանկանում ենք, որ այն հնարավորինս արագ զարգանա։

Ամերիկացի փիլիսոփա Հյուբերտ Դրեյֆուսը մի անգամ գիրք է գրել այն մասին, թե իր կարծիքով արհեստական ինտելեկտը երբեք ինչ բարձունքների չի կարող հասնել։ Սա այն չէ, ինչի մասին է այս գիրքը: Այն մասամբ կենտրոնանում է այն բանի վրա, թե ինչ չի կարող անել AI-ն ներկայումս և ինչու է կարևոր այն հասկանալը, բայց դրա մի զգալի մասը խոսում է այն մասին, թե ինչ կարելի է անել համակարգչային մտածելակերպը բարելավելու և այն տարածելու այն ոլորտներում, որտեղ այժմ դժվարանում է անել առաջինը: Քայլեր:

Մենք չենք ցանկանում, որ արհեստական ինտելեկտը վերանա. մենք ցանկանում ենք, որ այն բարելավվի, ընդ որում՝ արմատապես, որպեսզի մենք իսկապես հույսներս դնենք դրա վրա և դրա օգնությամբ լուծենք մարդկության բազմաթիվ խնդիրները։ Մենք բազմաթիվ քննադատություններ ունենք արհեստական ինտելեկտի ներկա վիճակի վերաբերյալ, բայց մեր քննադատությունը սիրո դրսեւորում է մեր արած գիտության հանդեպ, այլ ոչ թե հրաժարվելու և ամեն ինչից հրաժարվելու կոչ:

Մի խոսքով, մենք հավատում ենք, որ արհեստական ինտելեկտը իսկապես կարող է լրջորեն վերափոխել մեր աշխարհը. բայց մենք նաև հավատում ենք, որ AI-ի վերաբերյալ հիմնական ենթադրություններից շատերը պետք է փոխվեն, նախքան մենք կարողանանք խոսել իրական առաջընթացի մասին: Արհեստական ինտելեկտի մեր առաջարկած «վերաբեռնումը» ամենևին էլ պատճառ չէ հետազոտություններին վերջ դնելու (թեև ոմանք կարող են մեր գիրքը հասկանալ հենց այս ոգով), այլ ավելի շուտ ախտորոշում. այսօրվա իրավիճակը.

Մենք հավատում ենք, որ առաջ գնալու լավագույն միջոցը կարող է լինել դեպի ներս նայելը՝ դեմքով դեպի մեր սեփական մտքի կառուցվածքը:

Պարտադիր չէ, որ իսկապես խելացի մեքենաները լինեն մարդկանց ճշգրիտ կրկնօրինակները, բայց յուրաքանչյուր ոք, ով ազնվորեն նայում է արհեստական բանականությանը, կտեսնի, որ դեռ շատ բան կա սովորելու մարդկանցից, հատկապես փոքր երեխաներից, որոնք շատ առումներով գերազանցում են մեքենաներին։ նոր հասկացություններ կլանելու և հասկանալու նրանց կարողությունը:

Բժշկական գիտնականները հաճախ բնութագրում են համակարգիչները որպես «գերմարդկային» (այս կամ այն կերպ) համակարգեր, սակայն մարդու ուղեղը դեռևս գերազանցում է իր սիլիկոնային գործընկերներին առնվազն հինգ առումներով. մենք կարող ենք հասկանալ լեզուն, մենք կարող ենք հասկանալ աշխարհը, մենք կարող ենք ճկուն կերպով: հարմարվել նոր հանգամանքներին, մենք կարող ենք արագ սովորել նոր բաներ (նույնիսկ առանց մեծ քանակությամբ տվյալների) և կարող ենք տրամաբանել թերի և նույնիսկ հակասական տեղեկատվության դեպքում: Այս բոլոր ճակատներում ժամանակակից արհեստական ինտելեկտի համակարգերը անհույս կերպով կանգնած են մարդկանց հետևում:

Արհեստական ինտելեկտի վերագործարկում
Արհեստական ինտելեկտի վերագործարկում

Արհեստական ինտելեկտ. Reboot-ը կհետաքրքրի այն մարդկանց, ովքեր ցանկանում են հասկանալ ժամանակակից տեխնոլոգիաները և հասկանալ, թե ինչպես և երբ նոր սերնդի AI-ն կարող է ավելի լավը դարձնել մեր կյանքը:

Խորհուրդ ենք տալիս: