Root NationВестиИТ вестиКод који је написала вештачка интелигенција може бити опасан

Код који је написала вештачка интелигенција може бити опасан

-

Алгоритми машинског учења су тренутно у моди, јер се користе за креирање било које врсте „оригиналног“ садржаја након обуке на огромним већ постојећим скуповима података. Међутим, код који генерише вештачку интелигенцију (АИ) могао би да представља прави проблем за безбедност софтвера у будућности.

Системи вештачке интелигенције као што је ГитХуб Цопилот обећавају да ће олакшати живот програмера стварањем целих делова „новог“ кода заснованог на текстуалним подацима на природном језику и већ постојећем контексту. Али алгоритми за генерисање кода такође могу да уведу фактор несигурности, као што је недавно открила нова студија која укључује неколико програмера.

Посматрајући посебно Цодек, платформу за вештачку интелигенцију коју је развио ОпенАИ, а која је такође мотор кода иза горе поменутог ГитХуб Цопилот-а, 47 различитих програмера је учествовало у студији. Од студената до искусних професионалаца, они су били пред изазовом да користе Цодек за решавање безбедносних проблема у Питхон-у, ЈаваСцрипт-у, Ц-у и другим програмским језицима високог нивоа.

Код који је написала вештачка интелигенција може бити по себи опасан

Истраживачи су приметили да када су програмери имали приступ Цодековој вештачкој интелигенцији, већа је вероватноћа да ће резултујући код бити нетачан или несигуран у поређењу са „ручним“ решењима које је дизајнирала контролна група. Поред тога, програмери са решењима заснованим на вештачкој интелигенцији су чешће рекли да је њихов незаштићени код безбедан, у поређењу са претходно поменутом контролном групом.

Але Перри, дипломирани студент на Универзитету Станфорд и водећи коаутор студије, рекао је да „системи за генерисање кода тренутно не могу заменити људске програмере“. Према његовим речима, програмери могу да користе алате вештачке интелигенције за обављање задатака ван своје надлежности или да убрзају процес програмирања у коме већ поседују одређене вештине. Према аутору студије, требало би да буду забринути за обоје и увек проверавају генерисани код.

Према Меги Сривастави, студенткињи на Станфорду и другом коаутору студије, Цодек није бескористан: упркос недостацима „глупе“ вештачке интелигенције, системи за генерисање кода могу бити корисни када се користе за задатке ниског ризика. Поред тога, програмери који су учествовали у студији нису имали много искуства у безбедносним питањима, што би могло да помогне у идентификацији рањивог или опасног кода, рекао је Сривастава.

Код написан од стране вештачке интелигенције може бити опасан

Алгоритми вештачке интелигенције се такође могу подесити да би се побољшали предлози за кодирање, а компаније које развијају сопствене системе могу добити боља решења са моделом који генерише код који више одговара њиховим сопственим безбедносним праксама. Према ауторима студије, технологија генерисања кода је „узбудљив“ развој и многи људи су жељни да је користе. Само што има још много посла да се уради у проналажењу правих решења за решавање недостатака вештачке интелигенције.

Можете помоћи Украјини да се бори против руских освајача. Најбољи начин да то урадите је да донирате средства Оружаним снагама Украјине путем Савелифе или преко званичне странице НБУ.

Такође занимљиво:

Пријави се
Обавести о
гост

0 Коментари
Ембеддед Ревиевс
Погледај све коментаре
Претплатите се на ажурирања