Root NationВестиИТ вестиБивши шеф Гугла упоредио је вештачку интелигенцију са нуклеарним оружјем

Бивши шеф Гугла упоредио је вештачку интелигенцију са нуклеарним оружјем

-

Бивши извршни директор Гугла Ерик Шмит упоредио је вештачку интелигенцију (АИ) са нуклеарним оружјем и позвао на режим одвраћања, сличан обостраном осигураном уништењу, који спречава да најмоћније нације света униште једна другу.

Бивши шеф Гугла упоредио је вештачку интелигенцију са нуклеарним оружјем

Шмит је говорио о опасностима вештачке интелигенције на Аспенском безбедносном форуму 22. јула током дискусије о националној безбедности и вештачкој интелигенцији. На питање о вредности морала у технологији, Шмит је објаснио да је и сам био наиван по питању моћи информација у раним данима Гугла. Затим је позвао да технологија боље одговара етици и моралу људи којима служе, и направио чудно поређење између вештачке интелигенције и нуклеарног оружја.

Шмит је говорио о блиској будућности, у којој Кина и САД треба да закључе споразум о вештачкој интелигенцији. „50-их и 60-их година на крају смо створили свет у коме је постојало правило „без изненађења” за нуклеарна тестирања, и као резултат тога, она су забрањена“, рекао је Шмит. „Ово је пример равнотеже поверења или неповерења, ово је правило 'без изненађења'. Веома сам забринут да ће амерички поглед на Кину као корумпирану или комунистичку или било шта друго, и кинеско виђење Америке као губитника... дозволити људима да кажу: „О мој Боже, они нешто спремају“, а онда почеће нешто несхватљиво... .

АИ и машинско учење су фасцинантна и често погрешно схваћена технологија. Он у суштини није тако паметан као што људи мисле. Може да креира уметничка дела на нивоу ремек дела, да победи људе у Старцрафт ИИ и да обавља рудиментарне телефонске позиве за кориснике. Међутим, покушаји да се натера да обавља теже задатке, попут вожње аутомобила у великом граду, нису били успешни.

Шмит говори о замишљеној блиској будућности у којој ће и Кина и САД бити забринуте за безбедносна питања, што ће их приморати да уђу у неку врсту споразума о обуздавању вештачке интелигенције. Он се присетио 1950-их и 60-их, када је дипломатија развила низ контрола око најсмртоноснијег оружја на планети. Али била је потребна деценија нуклеарних експлозија и, што је најважније, уништења Хирошиме и Нагасакија, да дође до мира пре закључења Уговора о забрани нуклеарних проба, САЛТ ИИ и других значајних закона.

Два јапанска града које је Америка уништила на крају Другог светског рата однела су животе десетина хиљада људи и доказала свету вечни ужас нуклеарног оружја. Тада су владе Русије и Кине пожуриле да набаве оружје. Начин на који живимо са могућношћу употребе овог оружја је оно што је познато као узајамно осигурано уништење (МАД), теорија одвраћања која осигурава да ако једна земља лансира нуклеарно оружје, могуће је да ће и било која друга држава. Не користимо најразорније оружје на планети због могућности да уништи макар цивилизацију широм света.

Упркос Шмитовим шареним коментарима, не желимо нити требамо МАД за АИ. Прво, вештачка интелигенција још није доказала своју разорну моћ у поређењу са нуклеарним оружјем. Али људи на власти се плаше ове нове технологије, и то обично из погрешних разлога. Људи су чак предлагали да се контрола над нуклеарним оружјем преда вештачкој интелигенцији, верујући да би она била бољи арбитар за његову употребу од човека.

Бивши шеф Гугла је упоредио вештачку интелигенцију са нуклеарним оружјем

Проблем са вештачком интелигенцијом није у томе што она има потенцијално разорну моћ нуклеарног оружја. Поента је да је вештачка интелигенција добра онолико колико су добри људи који су је развили и да носи вредности својих креатора. АИ пати од класичног проблема „смеће унутра, смеће напоље“: расистички алгоритми стварају расистичке роботе, а сва АИ носи предрасуде својих креатора.

Демис Хасабис, извршни директор ДеепМинд-а, компаније која је обучавала вештачку интелигенцију која побеђује играче Старцрафт ИИ, изгледа да то разуме боље од Шмита. У јулском интервјуу на подцасту Лекса Фридмана, Фридман је питао Хасабиса како се може контролисати моћна технологија попут вештачке интелигенције и како сам Хасабис може да избегне да буде корумпиран том моћи.

Кхасабисов одговор је о њему самом. „Вештачка интелигенција је превелика идеја“, рекао је он. „Важно је ко ствара вештачку интелигенцију, из које културе потичу и које су њихове вредности. Системи вештачке интелигенције ће учити сами... али систем ће остати утиснут културом и вредностима аутора система."

Вештачка интелигенција је одраз њеног аутора. Не може сравнити град са земљом са експлозијом од 1,2 мегатона. Осим ако га човек томе не научи.

Можете помоћи Украјини да се бори против руских освајача. Најбољи начин да то урадите је да донирате средства Оружаним снагама Украјине путем Савелифе или преко званичне странице НБУ.

Прочитајте такође:

Изворпорок
Пријави се
Обавести о
гост

0 Коментари
Ембеддед Ревиевс
Погледај све коментаре
Остали чланци
Претплатите се на ажурирања
Популарно сада