Անօդաչու թռչող սարքերը և ինքնակառավարվող մեքենաները որպես զենք. ինչու պետք է վախենալ հաքերներից
Անօդաչու թռչող սարքերը և ինքնակառավարվող մեքենաները որպես զենք. ինչու պետք է վախենալ հաքերներից
Anonim

Եթե արհեստական ինտելեկտն ընկնի սխալ ձեռքերում, քաղաքակիրթ աշխարհը կարող է ընկղմվել քաոսի մեջ:

Անօդաչու թռչող սարքերը և ինքնակառավարվող մեքենաները որպես զենք. ինչու պետք է վախենալ հաքերներից
Անօդաչու թռչող սարքերը և ինքնակառավարվող մեքենաները որպես զենք. ինչու պետք է վախենալ հաքերներից

Ոչ ոք չի ժխտի, որ արհեստական ինտելեկտը կարող է մեր կյանքը հասցնել հաջորդ մակարդակի: AI-ն ի վիճակի է լուծել բազմաթիվ խնդիրներ, որոնք վեր են մարդկանց ուժերից։

Այնուամենայնիվ, շատերը կարծում են, որ գերհետախուզությունն անպայման կցանկանա մեզ ոչնչացնել, ինչպես SkyNet-ը, կամ կսկսի փորձեր անել մարդկանց վրա, ինչպես GLADoS-ը Portal խաղի ժամանակ: Զավեշտն այն է, որ միայն մարդիկ կարող են արհեստական ինտելեկտը դարձնել բարի կամ չար:

Ինչու արհեստական ինտելեկտը կարող է լուրջ սպառնալիք լինել
Ինչու արհեստական ինտելեկտը կարող է լուրջ սպառնալիք լինել

Յեյլի համալսարանի, Օքսֆորդի, Քեմբրիջի և OpenAI-ի գիտնականները զեկույց են հրապարակել արհեստական ինտելեկտի չարաշահման մասին։ Այն ասում է, որ իրական վտանգը գալիս է հաքերներից: Վնասակար կոդի օգնությամբ նրանք կարող են խաթարել AI-ի հսկողության տակ գտնվող ավտոմատացված համակարգերի աշխատանքը։

Հետազոտողները մտավախություն ունեն, որ լավ մտադրություն ունեցող տեխնոլոգիաները կվնասվեն: Օրինակ, հսկողության սարքավորումները կարող են օգտագործվել ոչ միայն ահաբեկիչներին բռնելու, այլեւ սովորական քաղաքացիներին լրտեսելու համար։ Հետազոտողները մտահոգված են նաև առևտրային դրոններով, որոնք սնունդ են մատակարարում: Հեշտ է նրանց կալանել և պայթուցիկ բան տնկել։

AI-ի կործանարար օգտագործման մեկ այլ սցենար ինքնակառավարվող մեքենաներն են: Բավական է փոխել կոդը մի քանի տող, և մեքենաները կսկսեն անտեսել անվտանգության կանոնները:

Ինչու արհեստական ինտելեկտը կարող է լուրջ սպառնալիք լինել
Ինչու արհեստական ինտելեկտը կարող է լուրջ սպառնալիք լինել

Գիտնականները կարծում են, որ սպառնալիքը կարող է լինել թվային, ֆիզիկական և քաղաքական:

  • Արհեստական բանականությունն արդեն օգտագործվում է տարբեր ծրագրային կոդերի խոցելիության ուսումնասիրության համար։ Ապագայում հաքերները կարող են ստեղծել բոտ, որը կշրջանցի ցանկացած պաշտպանություն։
  • AI-ի օգնությամբ մարդը կարող է ավտոմատացնել բազմաթիվ գործընթացներ՝ օրինակ՝ կառավարել անօդաչուների պարս կամ մեքենաների խումբ։
  • DeepFake-ի նման տեխնոլոգիաների օգնությամբ հնարավոր է ազդել պետության քաղաքական կյանքի վրա՝ ինտերնետում բոտերի միջոցով կեղծ տեղեկություններ տարածելով համաշխարհային առաջնորդների մասին։

Այս սարսափելի օրինակները մինչ այժմ գոյություն ունեն միայն որպես վարկած։ Հետազոտության հեղինակները չեն առաջարկում տեխնոլոգիայի ամբողջական մերժում։ Փոխարենը, նրանք կարծում են, որ ազգային կառավարությունները և խոշոր ընկերությունները պետք է հոգ տանեն անվտանգության մասին, քանի դեռ արհեստական ինտելեկտի արդյունաբերությունը դեռևս սկզբնական փուլում է:

Քաղաքականություն մշակողները պետք է ուսումնասիրեն տեխնոլոգիաները և աշխատեն ոլորտի փորձագետների հետ՝ արդյունավետորեն կարգավորելու արհեստական ինտելեկտի ստեղծումն ու օգտագործումը:

Կառուցապատողներն իրենց հերթին պետք է գնահատեն բարձր տեխնոլոգիաների կողմից բխող վտանգը, կանխատեսեն վատթարագույն հետևանքները և զգուշացնեն համաշխարհային առաջնորդներին դրանց մասին։ Զեկույցը AI ծրագրավորողներին կոչ է անում միավորվել այլ ոլորտների անվտանգության փորձագետների հետ և տեսնել, թե արդյոք այդ տեխնոլոգիաների անվտանգությունն ապահովող սկզբունքները կարող են օգտագործվել արհեստական ինտելեկտը պաշտպանելու համար:

Ամբողջական զեկույցը նկարագրում է խնդիրը ավելի մանրամասն, բայց հիմնականն այն է, որ AI-ն հզոր գործիք է: Բոլոր շահագրգիռ կողմերը պետք է ուսումնասիրեն նոր տեխնոլոգիան և համոզվեն, որ այն չի օգտագործվում հանցավոր նպատակներով:

Խորհուրդ ենք տալիս: