Root NationВестиИТ вестиТехнолошки стручњаци захтевају заустављање експеримената са вештачком интелигенцијом

Технолошки стручњаци захтевају заустављање експеримената са вештачком интелигенцијом

-

Технолошки лидери и истакнути истраживачи АИ су потписали отворено писмо, који позива АИ лабораторије и компаније да „одмах обуставе“ свој рад.

Потписници, укључујући Стива Вознијака и Елона Маска, слажу се да ризици захтевају најмање шестомесечну паузу у производњи технологија које превазилазе оквире РУЦЕНТЕР-КСНУМКС. Ово је да се извуче радост и задовољство из система вештачке интелигенције који сада постоје и да се омогући људима да се прилагоде њима и виде да су корисни.

Технолошки лидери и стручњаци позивају на заустављање експеримената са вештачком интелигенцијом

У писму се додаје да су потребни опрез и промишљеност да би се осигурала безбедност система вештачке интелигенције, али се они игноришу. Референца на ГПТ-4, нови ОпенАИ модел који може да одговори текстом на писане или визуелне поруке, долази док се компаније утркују да изграде софистициране системе за ћаскање користећи ту технологију. пример, Microsoft недавно је потврдио да његов ажурирани претраживач Бинг ради на ГПТ-4 моделу више од 7 недеља, а Гоогле је недавно званично представио бард – сопствени систем генеративне вештачке интелигенције заснован на ЛаМДА.

Забринутост око вештачке интелигенције постоји већ дуже време, али трка за усвајање најнапредније технологије је очигледна вештачка интелигенција први је већ алармантан. „Последњих месеци, АИ лабораторије су биле уплетене у неконтролисану трку да развију и имплементирају све моћније дигиталне умове које нико – чак ни њихови аутори – не може да разуме, предвиди или поуздано контролише“, наводи се у писму.

Технолошки лидери и стручњаци позивају на заустављање експеримената са вештачком интелигенцијом

Писмо је објавила непрофитна организација Футуре оф Лифе Институте (ФЛИ), која ради на минимизирању глобалних катастрофалних и егзистенцијалних ризика и злоупотребе нових технологија, посебно вештачке интелигенције. Претходно је Муск донирао 10 милиона долара ФЛИ-ју за истраживање безбедности вештачке интелигенције. Поред њега и Вознијака, међу потписницима су и бројни светски лидери у области вештачке интелигенције, као што су председник Центра за вештачку интелигенцију и дигиталну политику Марк Ротенберг, физичар МИТ-а и председник ФЛИ Макс Тегмарк и аутор Јувал Ноа Харари.

Харари је такође био коаутор чланка у Њујорк тајмсу прошле недеље упозоравајући на ризике повезане са вештачка интелигенција, на којој су са њим радили оснивачи Центра за хумане технологије и други потписници отвореног писма Тристан Харис и Аза Раскин.

Позив је уследио након прошлогодишње анкете више од 700 истраживача машинског учења у којој је скоро половина рекла да постоји око 10% шансе за „изузетно лоше последице“ од АИ, укључујући изумирање људи. На питање о безбедности у истраживању вештачке интелигенције, 68% испитаника је рекло да је потребно урадити више или много више.

Прочитајте такође:

Пријави се
Обавести о
гост

0 Коментари
Ембеддед Ревиевс
Погледај све коментаре
Претплатите се на ажурирања