Root NationСтаттиТецхнологиесОпенАИ пројекат П*: шта је то и зашто је пројекат забринут

ОпенАИ пројекат П*: шта је то и зашто је пројекат забринут

-

Тајанствено Пројекат К* из ОпенАИ изазива забринутост међу стручњацима. Може ли он заиста бити опасан за човечанство? Шта се зна о њему? Након што је Сем Алтман првобитно отпуштен прошле недеље и он и тим су се замало преселили у Microsoft, онда се вратио на своје радно место (о томе писали смо овде), ОпенАИ је поново у вестима. Овај пут због онога што неки истраживачи називају могућом претњом човечанству. Да, добро сте прочитали, претња човечанству.

Прави преокрет у свету технологије изазвао је пројекат К* - неоткривени пројекат опште вештачке интелигенције (АГИ) - изговара се К-Стар. Иако је овај пројекат у раној фази, сматра се да је заиста револуционаран у развоју АГИ. Међутим, неки то виде као опасност по човечанство.

ОпенАИ пројекат К

Тајни пројекат вештачке интелигенције који је развио позната лабораторија за вештачку интелигенцију ОпенАИ има потенцијал да револуционише технологију и друштво уопште. Али то такође поставља нека етичка питања о ризицима. Како се појављују детаљи о задивљујућим способностима Пројекта К*, појављује се све више спекулација о томе шта би то могло значити за будућност човечанства.

Такође занимљиво: Историја ОпенАИ: Шта је то било и шта је пред компанијом

Шта је вештачка општа интелигенција (АГИ)?

Да бисмо разумели узбуђење око пројекта К* (К-Стар), хајде да прво покушамо да разумемо шта је концепт вештачке опште интелигенције (АГИ). Док се тренутни системи вештачке интелигенције истичу у уским, специфичним задацима као што су играње шаха или генерисање слика, општа вештачка интелигенција се односи на машине које могу да уче и мисле на људском нивоу у многим доменима. То јест, могу да уче као мала деца у школи, на пример, основе математике, хемије, биологије итд.

Општа вештачка интелигенција (АГИ) је врста машинске интелигенције која хипотетички може опонашати људску интелигенцију или понашање, са способношћу да научи и примени тај потенцијал за решавање разних проблема. АГИ се такође назива јака вештачка интелигенција, пуна вештачка интелигенција или вештачка интелигенција на нивоу човека. Општа АИ се разликује од слабе или уске АИ, која је способна да обавља само специфичне или специјализоване задатке унутар датих параметара. ЗХИ ће моћи самостално да решава различите сложене проблеме из различитих области знања.

ОпенАИ пројекат К

Стварање вештачке интелигенције је главни фокус истраживања вештачке интелигенције компанија као што су ДеепМинд и Антхропиц. ЦСИ је веома популарна тема у научнофантастичкој литератури и може обликовати будућа истраживања. Неки тврде да је могуће створити УЦИ у року од неколико година или деценија, док други тврде да би то могло потрајати век или више. Али има оних који верују да се то никада неће постићи. Неки су видели почетке УРИ-ја у ГПТ-3, али изгледа да је и даље далеко од испуњавања основних критеријума.

Истраживачи сматрају да је стварање вештачке опште интелигенције (АГИ) свети грал вештачке интелигенције, теоријске могућности која је дуго заокупљала њихову машту. Стога је појава таквог пројекта као што је ОпенАИ Пројецт К* изазвала велики одјек у свету истраживања алгоритама вештачке интелигенције. Иако сви схватају да су ово само први кораци, готово слепо, у свет у коме ће вештачка интелигенција имати исте могућности као људи, или чак и више.

- Адвертисемент -

Такође занимљиво: Све о Microsoft Копилот: будућност или погрешан пут?

Шта је пројекат К*?

Пројекат К* није типичан алгоритам јер је то модел вештачке интелигенције који се све више приближава моделу вештачке опште интелигенције (АГИ). То значи да, за разлику од ЦхатГПТ-а, Пројецт К* показује боље мишљење и когнитивне вештине у поређењу са другим алгоритмима. ЦхатГПТ тренутно одговара на упите засноване на огромној количини чињеничног материјала, али уз АГИ, АИ модел ће научити расуђивање и способност размишљања и разумевања за себе. Већ је познато да је пројекат К* способан да решава једноставне математичке проблеме који нису били део његовог материјала за обуку. У томе неки истраживачи виде значајан корак ка стварању опште вештачке интелигенције (АГИ). ОпенАИ дефинише АГИ као системе вештачке интелигенције који су паметнији од људи.

ОпенАИ пројекат К

Развојем пројекта К* руководи главни научник ОпенАИ Иља Сутзкевер, а његову основу су поткрепили истраживачи Јакуб Пакхотски и Схимон Сидор.

Способност алгоритма да самостално решава математичке проблеме, чак и ако ови проблеми нису део скупа података за обуку, сматра се пробојом у области вештачке интелигенције. Неслагања у тиму у вези са овим пројектом повезана су са привременим уклањањем генералног директора ОпенАИ Сема Алтмана. Познато је да је пре него што је Алтман отпуштен, група истраживача компаније послала писмо управном одбору упозоравајући на откриће вештачке интелигенције која би могла да представља претњу по човечанство. То писмо, у којем се наводно говори о алгоритму пројекта К*, наведено је као један од фактора који су довели до Алтмановог отпуштања. Међутим, могућности Пројекта К* и потенцијални ризици који он може представљати нису у потпуности схваћени јер су детаљи непознати. Ништа није објављено широј јавности.

ОпенАИ пројекат К

У својој сржи, Пројецт К* је метода учења без модела и појачања која одступа од традиционалних модела тако што не захтева претходно познавање окружења. Уместо тога, учи кроз искуство, прилагођавајући радње на основу награда и казни. Технички стручњаци верују да ће Пројецт К* моћи да стекне изванредне способности стицањем способности сличних људским когнитивним способностима.

Међутим, управо је ова карактеристика најимпресивнија у новом моделу вештачке интелигенције која забрињава истраживаче и критичаре и изазива њихове страхове у вези са применом технологије у стварном свету и повезаним ризицима. Чега се научници и истраживачи толико боје? Хајде да то схватимо.

Такође занимљиво: Како да ажурирате своје кућне уређаје да подржавају Ви-Фи 6

Плаше се непознатог

Људи су се одувек плашили непознатог, неспознатљивог. То је људска суштина, одлика нашег карактера и начина живота.

Свет технологије је сазнао за Пројецт К* у новембру 2023. након Реутерса пријавио о интерном писму које су написали забринути ОпенАИ истраживачи. Садржај писма је био нејасан, али је наводно озбиљно анализирао могућности пројекта К*. Као што сам већ поменуо, чак се спекулише да је управо ово писмо изазвало оставку Сема Алтмана.

ОпенАИ пројекат К

Ово експлозивно откриће је довело до различитих хипотеза у вези са природом Пројекта К*. Научници су сугерисали да би ово могао бити револуционарни модел природног језика за АИ. Нека врста проналазача нових алгоритама који ће их креирати за друге облике АИ, или нешто сасвим друго у овој области.

Алтманови провокативни коментари о општој вештачкој интелигенцији као „просечном запосленом“ већ су изазвали забринутост за сигурност посла и незаустављиво ширење утицаја вештачке интелигенције. Овај мистериозни алгоритам је дефинисан као прекретница у развоју вештачке опште интелигенције (АГИ). Међутим, сви разумеју да је ова прекретница скупа. И не ради се сада о новцу. Ниво когнитивних вештина који обећава нови модел вештачке интелигенције носи са собом неизвесност. Научници ОпенАИ обећавају да ће АИ имати размишљање на нивоу човека. А то значи да многе ствари не можемо знати и предвидети последице. И што је више непознато, теже је припремити се да то контролишете или поправите. То јест, нови алгоритам је способан за самопобољшање и развој. Ово смо већ негде видели...

Такође занимљиво: Виндовс 12: Шта ће бити нови ОС

- Адвертисемент -

Невероватни детаљи о могућностима Пројецт К*

Када је почело да се појављује више информација, то је шокирало многе истраживаче. Ране индикације су биле да је пројекат К* имао невероватну вештину за математику. За разлику од калкулатора који изводи механичке прорачуне, Пројецт К* наводно може да користи логику и резоновање за решавање сложених математичких проблема. Ова математичка способност генерализације наговештава развој широке интелигенције.

ОпенАИ пројекат К

Аутономна обука пројекта К*, без специфичних скупова података који се користе за обуку типичних АИ, такође ће бити велики корак напред. Остаје непознато да ли је Пројецт К* савладао неке друге вештине. Али његове математичке способности су саме по себи толико невероватне да збуњују чак и искусне истраживаче.

Прочитајте такође: Пројекат људског мозга: Покушај имитације људског мозга

Пут пројекта К* до доминације?

По овом питању постоје и оптимистични и песимистични сценарији. Оптимисти ће рећи да би пројекат К* могао бити варница која води ка технолошком продору. Како се систем рекурзивно самопобољшава, његова натприродна интелигенција може помоћи у решавању неких од најхитнијих проблема човечанства, од климатских промена до контроле болести. Пројекат К* може аутоматизовати досадан рад и ослободити наше слободно време за друге активности.

ОпенАИ пројекат К

Иако постоји много песимистичнијих опција. Понекад су прилично разумни и имају одређено значење.

Губитак послова

Брзи помаци у развоју технологије могу надмашити индивидуалну адаптацију људи. То ће довести до губитка једне или више генерација које неће моћи да стекну неопходне вештине или знања да се прилагоде новој стварности. Односно, ово, пак, значи да ће мање људи моћи да задржи посао. Уместо тога, то ће обављати машине, аутоматизовани системи и роботи. Међутим, одговор није тако јасан када су у питању квалификовани стручњаци. Поред тога, могу се појавити нове професије које се посебно односе на развој алгоритама вештачке интелигенције. Али ризици и даље постоје, а човечанство нема право да их игнорише.

Опасност од неконтролисане моћи

Ако вештачка интелигенција моћна као што је Пројекат К* падне у руке оних са подлим намерама, ризикује катастрофалне последице по човечанство. Чак и без потенцијално злонамерне намере, ниво доношења одлука пројекта К* може довести до штетних исхода, наглашавајући критичну важност пажљивог процењивања његове примене.

Ако је пројекат К* лоше оптимизован за људске потребе, може проузроковати штету својом способношћу да максимизира неке произвољне метрике. Или може имати политичку димензију, као што је употреба за државни надзор или репресију. Отворена дебата око анализе утицаја Пројекта К* ће помоћи да се дефинишу могући сценарији за развој ЗХИ.

Да ли нас чека обрачун "Човек против машине"?

Холивуд је у својим филмовима већ створио много сценарија такве конфронтације. Сви се сећамо чувеног СкиНета и последица таквог открића. Можда би истраживачи ОпенАИ требали поново погледати овај филм?

Човечанство треба да прихвати сигнале и изазове и да буде спремно за оно што се може догодити. Модел вештачке интелигенције способан да размишља као човек може једног дана постати наш непријатељ. Многи би тврдили да ће у будућности научници тачно знати како да држе ситуацију под контролом. Али када је реч о машинама, не можете потпуно искључити могућност да ће покушати да преузму људе.

Такође занимљиво: Није све што називамо АИ заправо вештачка интелигенција. Ево шта треба да знате

Зашто ОпенАИ ћути?

Упркос великом интересу јавности за Пројецт К*, руководство ОпенАИ-ја ћути о специфичностима алгоритма. Али интерно цурење показује растуће тензије у лабораторији око приоритета и отворености развоја догађаја. Док многи инсајдери ОпенАИ подржавају стварање пројекта К*, критичари тврде да је транспарентност заузела позадину убрзавању научног напретка по сваку цену. И неки истраживачи су забринути да се невероватна моћ даје системима чији се циљеви не поклапају нужно са људским вредностима и етиком. Ови истраживачи верују да су дебате око надзора и одговорности постале опасно пригушене. Захтевају више публицитета и детаља.

ОпенАИ пројекат К

Као креатори пројекта К*, ОпенАИ мора схватити да поседују технологију која може или у великој мери да прошири могућности развоја друштва, или је немилосрдно уништи. Овако значајне иновације заслужују много више транспарентности за изградњу поверења јавности. Сви прогностичари у доба машина морају пажљиво да одвагају ризике поред користи. А програмери Пројекта К* треба да покажу довољно мудрости и бриге да безбедно уведу друштво у нову еру опште вештачке интелигенције која може доћи раније него што смо икад замислили.

Да би општа вештачка интелигенција била корисна и безбедна за човечанство, мора се обезбедити да функционише безбедно, етички иу складу са вредностима и циљевима човечанства. Ово захтева развој и примену одговарајућих регулаторних аката, стандарда, правила и протокола који ће контролисати и ограничавати радње и понашање ЦСИ. Поред тога, морају се елиминисати потенцијалне претње и ризици повезани са злоупотребама, незгодама, некомпатибилностима, манипулацијама и сукобима који би могли да доведу до уништења човечанства. У међувремену, инвеститори и Microsoft жељно ишчекујући тржишни производ који би могао да оствари профит, што је несумњиво у супротности са потребом да се понашамо одговорно. Надајмо се да ће здрав разум превладати.

Прочитајте такође: 

Yuri Svitlyk
Yuri Svitlyk
Син Карпата, непризнати геније математике, "адвокат"Microsoft, практични алтруиста, лево-десно
- Адвертисемент -
Пријави се
Обавести о
гост

0 Коментари
Ембеддед Ревиевс
Погледај све коментаре
Претплатите се на ажурирања