Root NationВестиИТ вестиАИ представља „ризик од изумирања“ на нивоу нуклеарног рата, кажу лидери индустрије

АИ представља „ризик од изумирања“ као и нуклеарни рат, кажу лидери индустрије

-

Са појавом ЦхатГПТ-а, Барда и других великих АИ модела, чули смо упозорења од људи који су укључени у њих, попут Елона Маска, о ризицима које АИ представља. Сада је група истакнутих лидера индустрије издала изјаву од једне реченице која заправо потврђује те страхове.

АИ

Апликација је објављена на на сајту Центра за безбедност вештачке интелигенције (Центар фор АИ Сафети) је организација чија је мисија да „смањи ризике повезане са вештачком интелигенцијом на друштвеном нивоу“. Међу потписницима су познати представници индустрије вештачке интелигенције, укључујући извршног директора ОпенАИ Сем Алтмана и чел. гоогле ДеепМинд Демис Хассабис. Добитници Тјурингове награде Џефри Хинтон и Џошуа Бенђо, које многи сматрају кумовима модерне вештачке интелигенције, такође су потписали изјаву.

Ово је друга таква изјава у последњих неколико месеци. У марту су Муск, Стив Вознијак и више од 1000 других позвали на шестомесечну паузу у развоју вештачке интелигенције како би се омогућило индустрији и јавности да ефикасно савладају технологију. „Последњих месеци, АИ лабораторије су биле уплетене у неконтролисану трку да развију и имплементирају све моћније дигиталне умове које нико – чак ни њихови креатори – не може да разуме, предвиди или поуздано контролише“, наводи се у писму.

Иако вештачка интелигенција (вероватно) није толико самосвесна као неки страх, већ представља ризик од злоупотребе и штете кроз дубоке лажирања, аутоматизоване дезинформације и још много тога. АИ такође може да промени начин на који се производи садржај, уметност и књижевност, потенцијално утичући на многе послове.

Амерички председник Џо Бајден је недавно рекао да „остаје да се види“ да ли је вештачка интелигенција опасна, додајући: „По мом мишљењу, технолошке компаније имају обавезу да се увере да су њихови производи безбедни пре него што их пусте у свет... АИ може помоћи у решавању неких веома тешких проблема као што су болести и климатске промене, али такође мора узети у обзир потенцијалне ризике за наше друштво, нашу економију, нашу националну безбедност. На недавном састанку у Белој кући, Алтман је позвао на регулисање АИ због потенцијалних ризика.

С обзиром на широк спектар мишљења, нови извештај има за циљ да покаже заједничку забринутост за ризике повезане са вештачком интелигенцијом, чак и ако се стране не слажу о томе шта су ти ризици.

АИ

„Стручњаци за вештачку интелигенцију, новинари, политичари и јавност све више расправљају о широком спектру важних и хитних ризика повезаних са вештачком интелигенцијом“, наводи се у преамбули саопштења. „Међутим, може бити тешко изразити забринутост због неких озбиљнијих ризика повезаних са вештачком интелигенцијом. Сажета изјава у наставку има за циљ да превазиђе ову препреку и отвори дискусију. Такође је дизајниран да информише све већи број стручњака и јавних личности које такође озбиљно схватају неке од најозбиљнијих ризика повезаних са вештачком интелигенцијом."

Прочитајте такође:

Пријави се
Обавести о
гост

0 Коментари
Ембеддед Ревиевс
Погледај све коментаре
Остали чланци
Претплатите се на ажурирања
Популарно сада