Категорије: Аналитика

Шест заповести вештачке интелигенције

Наредне године обележиће нагли развој технологија вештачке интелигенције. Можда је потребно увести јасно дефинисане оквире за креирање и коришћење АИ? Да ли је 6 месеци искуства довољно да се регулише технологија која још није ни изашла из лабораторије? Ово питање све више долази из уста стручњака и новинара када је у питању вештачка интелигенција. Све чешће се чују гласови и позиви да се предузму мере за регулисање вештачке интелигенције – како на нивоу корисника, тако и на нивоу развоја пројекта. Историја таквих апелација почела је давно.

Свеприсутно присуство вештачке интелигенције у дигиталном простору и, пре свега, модела способних да креирају садржај који се неће разликовати од онога што стварају људи, изазива веома различите емоције. С једне стране, имамо групу ентузијаста који будућност виде у вештачкој интелигенцији и, упркос њеним релативно ограниченим могућностима (јер вештачка интелигенција не размишља, и често само узима информације са интернета), не плаше се да јој повере многе задатке. . Са друге стране барикаде је група која изражава своју скепсу и забринутост за актуелне трендове у развоју вештачке интелигенције.

Мост између ове две групе су истраживачи вештачке интелигенције, који, с једне стране, наводе бројне примере како је вештачка интелигенција позитивно утицала на околну стварност. Истовремено, схватају да је прерано да се одмарају на ловорикама, а огроман технолошки скок доноси многе изазове и велику одговорност. Јасан пример оваквог става је међународна група истраживача вештачке интелигенције и машинског учења коју предводи др Озлем Гарибеј са Универзитета Централне Флориде. Публикација на 47 страница, коју је написало 26 научника из целог света, идентификује и описује шест изазова са којима истраживачке институције, компаније и корпорације морају да се позабаве како би своје моделе (и софтвер који их користи) учинили сигурним.

Да, ово је озбиљан научни рад са важним објашњењима за разумевање будућности вештачке интелигенције. Ко је заинтересован, може самостално прочитајте овај научни извештај и сами донесите закључке. Једноставним речима, научници су идентификовали 6 заповести вештачке интелигенције. Сви развоји и радње вештачке интелигенције морају да буду у складу са њима тако да буду безбедни за људе и свет.

У свом чланку, написаном управо на основу овог научног рада, покушаћу да формулишем главне постулате, законе по којима вештачка интелигенција треба да постоји и да се развија. Да, ово је моје готово слободно тумачење закључака научника у вези са развојем вештачке интелигенције и покушај да их представим у, да тако кажем, библијској верзији. Али овако сам хтео да вас упознам са овим научним радом угледних научника.

Такође занимљиво: Изградња АИ: Ко води трку?

Први закон: Људско благостање

Први постулат истраживача је фокусирање рада вештачке интелигенције на људско благостање. Због недостатка „људских вредности, здравог разума и етике“, вештачка интелигенција може деловати на начин који ће довести до значајног погоршања људског благостања. Проблеми могу бити резултат надљудских способности АИ (на пример, колико лако АИ побеђује људе - и то не само у шаху), али и чињенице да АИ не размишља својом главом, па стога није у стању да "филтрира" предрасуде или очигледне грешке.

Истраживачи примећују да претерано поверење у технологије вештачке интелигенције може негативно утицати на добробит људи. Друштво које слабо разуме како алгоритми вештачке интелигенције заправо функционишу има тенденцију да му претерано верује, или, напротив, има негативан став према садржају који генерише одређени модел, посебно чет-ботовима. Узимајући у обзир ове и друге факторе, Гарибајев тим позива да се људско благостање стави у центар будућих интеракција АИ и људи.

Прочитајте такође: ЦхатГПТ: једноставан кориснички водич

Други закон: Одговорност

Одговорност је термин који се стално појављује у свету вештачке интелигенције у контексту онога за шта користимо машинско учење и како се тачно АИ модели и алгоритми развијају и обучавају. Међународни тим наглашава да дизајн, развој и имплементацију вештачке интелигенције треба радити искључиво у добрим намерама.

По њиховом мишљењу, одговорност треба посматрати не само у техничком, већ иу правном и етичком контексту. Технологија се мора разматрати не само са становишта њене ефикасности, већ иу контексту њене употребе.

"Са увођењем напредних техника машинског учења, постаје све важније разумети како је одлука донета и ко је за њу одговоран” – пишу истраживачи.

Трећи закон: Поверљивост

Приватност је тема која бумерангима улази у сваки дискурс о технологији. Поготово када се о свему расправља на друштвеним мрежама. Међутим, ово је изузетно важно за вештачку интелигенцију јер она не постоји без базе података. А шта су базе података?

Научници их описују као „апстракцију основних грађевних блокова који чине начин на који видимо свет“. Ови блокови су обично уобичајене вредности: боје, облици, текстуре, удаљености, време. Док уски АИ фокусиран на један циљ, као што је степен до којег се затварач отвара при датом интензитету светлости, користи јавно доступне објективне податке, АИ у ширим применама (овде, на пример, модели текста у слику као што су Мидјоурнеи , или језички модели као што је ЦхатГПТ ) могу да користе податке о људима и које су креирали. Треба поменути и чланке у штампи, књиге, илустрације и фотографије објављене на интернету. Алгоритми вештачке интелигенције имају приступ свему, јер смо им ми сами то дали. У супротном, неће знати ништа и неће дати одговоре ни на једно питање.

Кориснички подаци суштински утичу како на људе о којима се ови подаци прикупљају, тако и на људе у систему где ће бити имплементирани алгоритми вештачке интелигенције.

Дакле, трећи изазов се односи на широко схватање приватности и обезбеђивање таквих права као што су право да остане сам, право на ограничење приступа себи, право на тајност личног живота или пословања, право на контролу личног живота. информације, односно право на заштиту своје личности, индивидуалности и достојанства. Све ово мора бити уписано у алгоритме, иначе приватност једноставно неће постојати, а АИ алгоритми се могу користити у лажним шемама као иу кривичним делима.

Прочитајте такође: 7 најбољих начина да користите ЦхатГПТ

Четврти закон: Структура пројекта

Вештачка интелигенција може бити изузетно једноставна и једнонаменска, али у случају већих модела са широком природом и више задатака, проблем није само приватност података, већ и структура дизајна.

На пример, ГПТ-4, најновији ОпенАИ модел вештачке интелигенције, упркос својој величини и утицају на свет вештачке интелигенције (и шире), нема у потпуности јавну документацију. То јест, немамо разумевање шта су крајњи циљеви за програмере, шта желе да добију у коначном резултату. Стога, не можемо у потпуности проценити ризике повезане са употребом овог АИ модела. ГПТ-3, с друге стране, обучен на подацима са 4цхан форума, је модел са којим дефинитивно не желите да комуницирате. 4цхан форум је један од најзанимљивијих феномена на Интернету. Ово је пример апсолутне, тоталне анархије, која у пракси није ограничена никаквим оквирима. Овде су створене хакерске групе попут Анонимоус или ЛулзСец. То је извор многих најпопуларнијих мемова, место за дискусију о контроверзним темама и објављивање још контроверзнијих мишљења. Иако је на имиџу на енглеском језику наведено да је „за сада легално“, ово је донекле упитно, с обзиром на то да 4цхан повремено комуницира са медијима, укључујући расистички, нацистички и сексистички садржај.

Тим професора Гарибаја жели да сваки модел вештачке интелигенције ради у јасно дефинисаном оквиру. Не само због добробити особе са којом АИ комуницира, већ и због способности да процени ризике повезане са употребом модела. Структура сваког пројекта треба да укључује поштовање потреба, вредности и жеља различитих културних група и заинтересованих страна. Процес стварања, обуке и финог подешавања АИ треба да буде фокусиран на људско благостање, а крајњи производ – АИ модел – треба да буде фокусиран на побољшање и побољшање продуктивности саме људске заједнице. Модели у којима се ризици не могу идентификовати треба да имају ограничен или контролисан приступ. Они не би требало да представљају претњу човечанству, већ напротив, доприносе развоју човека и друштва у целини.

Прочитајте такође: Twitter у рукама Елона Маска – претња или „побољшање”?

Пети закон: Управљање и независни надзор

Алгоритми вештачке интелигенције су буквално променили свет за само годину дана. Бард од Гоогле-а и Бинг премијерно од Microsoft значајно утицала на акције оба гиганта на берзи. Они су, иначе, допринели расту акција ових компанија чак и на позадини акција Apple. ЦхатГПТ је почео да се активно користи од стране ученика, они комуницирају са њим, испитују га и постављају питања. Најважније је да има способност самоучења, исправљања својих грешака. Вештачка интелигенција почиње да ради чак и у владама неких земаља. Ово је случај премијера Румуније Николаја Чуке ангажовао виртуелног помоћник који ће га информисати о потребама друштва. Односно, вештачка интелигенција игра све важнију улогу у нашим животима.

С обзиром на све већу међузависност између вештачке интелигенције, човека и животне средине, научници сматрају неопходним стварање управних тела и независан надзор над њеним развојем. Ова тела ће контролисати цео животни циклус вештачке интелигенције: од идеје до развоја и имплементације. Власти ће правилно дефинисати различите моделе АИ и размотрити случајеве који се односе на вештачку интелигенцију и субјекте друштвеног живота. Односно, вештачка интелигенција може постати предмет судских спорова, али и тужби. Иако, наравно, не он лично, већ његови програмери.

Прочитајте такође: Све о Неуралинку: Почетак сајберпанк лудила?

Шести закон: Интеракција човека и вештачке интелигенције

У програмима вештачке интелигенције свако може да пронађе нешто за себе: генерише текст, детектује садржај у сликама, одговара на питања, генерише слике, препознаје људе на фотографијама, анализира податке. Ове вишеструке употребе нису само брига људи који покушавају да прилагоде вештачку интелигенцију правним и етичким стандардима. Многи се плаше да ће их АИ модели истиснути са тржишта рада. Зато што ће алгоритми вештачке интелигенције моћи да ураде исту ствар брже, јефтиније, а можда чак и боље од човека. Истовремено, постоје људи који се у свом раду ослањају на АИ, односно вештачка интелигенција им је већ данас незаобилазан помоћник.

Али из студија на које се позивају научници јасно је да је замена људи јефтином вештачком радном снагом још увек прилично далеко. Упркос томе, они већ инсистирају на потреби успостављања строге хијерархије интеракције између људи и вештачке интелигенције. По њиховом мишљењу, људе треба ставити изнад вештачке интелигенције. Вештачка интелигенција се мора стварати уз поштовање когнитивних способности човека, узимајући у обзир његове емоције, друштвене интеракције, идеје, планирање и интеракцију са објектима. Односно, у свим ситуацијама, особа је та која мора стајати над вештачком интелигенцијом, контролисати понашање и садржај који креира модел и бити одговоран за то. Једноставним речима, чак и најнапреднији АИ мора послушати особу и не прелазити оно што је дозвољено, како не би наудило свом творцу.

Прочитајте такође: Како Украјина користи и прилагођава Старлинк током рата

Новости

Да, неко ће рећи да научници у свом извештају нису навели ништа важно и ново. Сви већ дуго причају о овоме. Али већ сада је неопходно ставити АИ у неке оквире закона. Посезање за ГПТ-4 је као посезање за ножем слепо. Крију кључне информације од нас. Сва дешавања у области вештачке интелигенције, а посебно ЦхатГПТ пројекат из Опен АИ, често ме подсећају на подизање малог детета. Понекад се чини да је ово дете ванземаљског порекла. Да, ванземаљац, али он је ипак дете које учи, греши, понекад се понаша непримерено, раздражљиво је, свађа се са родитељима. Иако расте и развија се веома брзо.

Човечанство можда неће пратити свој развој и ствари могу измаћи контроли. Дакле, човечанство већ треба да схвати зашто све ово развијамо, да зна крајње циљеве, да будемо „одговорни родитељи“, јер у супротном „дете“ може једноставно да уништи своје „родитеље“.

Прочитајте такође: 

Share
Yuri Svitlyk

Син Карпата, непризнати геније математике, "адвокат"Microsoft, практични алтруиста, лево-десно

Ostavite komentar

Ваша емаил адреса неће бити објављена. Obavezna polja su označena*