Вести о вештачкој интелигенцији, 5. фебруар 2026

Резиме вести о вештачкој интелигенцији: 5. фебруар 2026

🕵️ Велика Британија ће сарађивати са Мајкрософтом на изградњи система за детекцију дипфејкова

Велика Британија каже да се удружује са Мајкрософтом, академицима и другим стручњацима како би изградили систем који може да открије дипфејкове на мрежи - плус прави начин да се тестира да ли алати за детекцију функционишу у пракси.

Нагласак је на штети која најтеже наноси: лажно представљање, превара и сексуални садржај без пристанка. Није гламурозно, али ту се штета концентрише.

🧠 Антропик објављује надоградњу вештачке интелигенције док тржиште кажњава софтверске акције

Антропик је представио надограђени Клодов модел (Опус 4.6), истичући боље перформансе у кодирању и финансијама, плус могућност да се одједном потроши до милион токена. То је много контекста - као давање моделу целе библиотечке карте.

Такође се ослањају на „агенте“ преко Клод Кода, где се задаци могу поделити између аутономних помоћника. Практично, више него што бисте очекивали - а такође и врста промене која инвеститоре у софтвер старе школе чини помало нервозним.

🧑💼 OpenAI представља услугу AI агента као део напора да привуче предузећа

OpenAI је најавио „Frontier“, услугу фокусирану на предузећа за изградњу и управљање AI агентима - ботовима који обављају одређене послове попут дебаговања софтвера, руковања радним токовима и слично.

Поента је у томе што је намењен да се повеже са постојећом инфраструктуром компаније, па чак и да подржи агенте треће стране, што звучи као да OpenAI тежи да постане контролна соба - не само добављач модела. Амбициозно... или помало посесивно, зависно од тога како гледате на то.

🪖 САД и Кина се одјавиле од заједничке декларације о употреби вештачке интелигенције у војсци

Група земаља је потписала необвезујућу декларацију којом се утврђују принципи за коришћење вештачке интелигенције у ратовању - ствари попут људске одговорности, јасних структура командовања и озбиљног тестирања и процене ризика.

Али САД и Кина нису потписале. Што је цела прича у једном незгодном тренутку - правилник постоји, а највећи играчи... не држе оловку.

🎭 Закон државе Њујорк захтева откривање података о извођачима генерисаним вештачком интелигенцијом у рекламама и јача права на публицитет након смрти

Њујорк је потписао законе који захтевају да огласи који користе „синтетичке извођаче“ генерисане вештачком интелигенцијом јасно открију то публици у држави - чак и ако се оглашивач налази негде другде. У основи, то је: немојте подбацити лажног човека другим људима и назвати то маркетингом.

Одвојено, држава је пооштрила правила о комерцијалној употреби лика преминулих људи, укључујући дигиталне реплике. Искрено, мало је суморно, али и веома „добродошло у еру када идентитету треба појас“

Честа питања

Шта Велика Британија гради са Мајкрософтом како би открила дипфејкове на мрежи?

Велика Британија каже да ће сарађивати са Мајкрософтом, академицима и другим стручњацима како би изградила систем који може да открије дипфејкове на мрежи. План такође укључује стварање поузданог начина за тестирање да ли алати за детекцију функционишу ван лабораторије. Фокус остаје на штетности која је најнајтежа: лажно представљање, превара и сексуални садржај без пристанка.

По чему ће се тестирање „у природи“ за детекторе дипфејкова разликовати од демо верзија?

Уз сам детектор, Велика Британија наглашава начин тестирања алата за детекцију дипфејкова у реалним условима. У многим процесима, модели изгледају снажно на курираним скуповима података, али слабе када се промене формати садржаја, компресија или тактике противника. Структурирани приступ евалуацији помаже у доследном поређењу алата и открива где детекција не успева у живим онлајн окружењима.

Шта је Anthropic променио у Claude Opus 4.6 и зашто је ограничење токена важно?

Антропик каже да Клод Опус 4.6 побољшава перформансе у областима као што су кодирање и финансије и да може да обради до милион токена контекста. Тај већи контекстуални прозор може олакшати рад са дугим документима или сложеним базама кода без сталног поновног учитавања информација. Такође су истакли „агенте“ путем Клод Кода, где се задаци могу поделити између аутономних помоћника.

Шта је OpenAI „Frontier“ и како се уклапа у пословне токове рада?

OpenAI је најавио „Frontier“ као услугу фокусирану на предузећа за изградњу и управљање вештачком интелигенцијом који обављају одређене задатке, попут отклањања грешака у софтверу или руковања радним процесима. Позиционирана је да се прикључи на постојећу инфраструктуру компаније, уместо да служи као самостална крајња тачка модела. OpenAI је такође рекао да може да подржи агенте трећих страна, што имплицира контролни слој за координацију различитих агентских система.

Шта каже војна декларација о вештачкој интелигенцији и шта то значи за управљање вештачком интелигенцијом?

Декларација је описана као необавезујућа и утврђује принципе за коришћење вештачке интелигенције у ратовању, укључујући људску одговорност, јасне командне структуре и озбиљно тестирање и процену ризика. Ројтерс је известио да су многе земље потписале, али САД и Кина нису. За управљање вештачком интелигенцијом, то изузеће је важно јер оставља највеће играче ван заједничког скупа наведених норми.

Шта нова правила Њујорка захтевају за извођаче у огласима генерисане вештачком интелигенцијом?

Њујорк је потписао законе који захтевају да оглашавање које користи „синтетичке извођаче“ генерисане вештачком интелигенцијом јасно открије ту чињеницу публици у држави, чак и ако се оглашивач налази негде другде. Одвојено, држава је ојачала права на постмортално оглашавање у вези са комерцијалном употребом лика преминулих људи, укључујући дигиталне реплике. У практичном смислу, ово помера управљање вештачком интелигенцијом ка јаснијем означавању и строжој контроли употребе идентитета.

Јучерашње вести о вештачкој интелигенцији: 4. фебруар 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог