Вести о вештачкој интелигенцији, 20. фебруар 2026

Резиме вести о вештачкој интелигенцији: 20. фебруар 2026

💰 Нвидиа наводно планира удео од 30 милијарди долара у мега рунди финансирања ОпенАИ-ја

Наводно се Nvidia приближава улагању од око 30 милијарди долара у OpenAI као део гигантског повећања средстава - бројке која вам натера очи да трепну „чекај, шта?“.

Извештаји то описују као одступање од ранијег, још увек нефинализованог аранжмана о великим размерама, при чему се велики део новца на крају враћа у рачунарство. AI стек почиње да личи на корнет за сладолед који се сам облизује... или се бар тако чини. ( Ројтерс )

🧠 Акције сајбер индустрије падају након што је Anthropic дебитовао са „Claude Code Security“

Антропик је представио понуду Клод Кода фокусирану на безбедност, а реакција тржишта је била... нервозна, а имена из области сајбер безбедности су наводно прихватила импликацију да би алати засновани на вештачкој интелигенцији могли да се укључе у делове застарелог безбедносног тока рада.

Занимљив део је оквир: мање „вештачка интелигенција помаже безбедносним тимовима“ и више „вештачка интелигенција постаје безбедносни производ“, што је суптилна, али помало брутална промена ако данас продајете места и претплате. ( Bloomberg.com )

📵 Антропик затеже завртње приступу трећих страна претплатама Клод

Антропик је ажурирао правне услове како би разјаснио ограничења око коришћења „појасева“ трећих страна са претплатама Клод - у основи, мање рупа за омотачке апликације и незваничне интеграције.

Ако градите на основу Клода, то звучи као благи подсетник да власник платформе може - и хоће - да промени границе када модели прихода постану нејасни. Досадно за градитеље, предвидљиво за предузећа, обе ствари могу бити тачне. ( The Register )

🔍 Мајкрософтово истраживање тврди да не постоји јединствени поуздан начин за откривање медија генерисаних вештачком интелигенцијом

Чланак компаније Microsoft Research упозорава да не постоји чаробна техника за поуздано разликовање медија генерисаних вештачком интелигенцијом од аутентичног садржаја и да претерано поверење у било који детектор може имати супротан ефекат.

Закључак делује помало суморно: откривање ће бити слојевито, вероватносно и супарничко - попут филтрирања спама, али са већим улозима и више хаоса. ( Redmondmag )

🧪 Google Gemini 3.1 Pro се појављује са „логичким скоком“

Gemini 3.1 Pro је стигао до најаве, а Google је представио побољшано основно образложење и широку доступност свих својих производа и API-ја, плус права на хвалисање реперима о којима ће се дефинитивно расправљати на интернету.

Оно што је важно, тихо, јесте да ли програмери то осећају у свакодневним радним процесима - мање чудних промашаја, бољи дугорочни задаци, мање „звучало је самоуверено, али... не.“ ( Notebookcheck )

🏛️ Највећи произвођачи вештачке интелигенције претварају се у неке од највећих лобиста

Велике лабораторије за вештачку интелигенцију повећавају трошкове лобирања, инсистирајући на регулаторним приступима са којима могу да живе - и, да, то вероватно значи правила која изгледају „одговорно“ без уништавања раста.

То је класичан пут: изградити нешто што ће обликовати свет, а затим трчати до стола са политичким одлукама пре него што неко други постави план. Није зло, није светац, само... изузетно људски. ( Форбс )

Честа питања

Шта сигнализира пријављени удео компаније Нвидија од 30 милијарди долара у мега рунди финансирања компаније ОпенАи?

То наговештава да највећи играчи у вештачкој интелигенцији можда упадају у чвршћу вертикалну испреплетеност, где је финансирање уско повезано са приступом рачунарству. Извештавање приказује структуру као помак од ранијег, још увек не финализованог, превеликог плана. У практичном смислу, капитал који „подиже цену“ може такође функционисати као механизам за плаћање инфраструктуре, омекшавајући границу између инвеститора и добављача. Следи додатна контрола, посебно у вези са подстицајима и ризиком зависности.

Зашто су се акције сајбер тржишта заљуљале након што је Anthropic представио Claude Code Security?

Чини се да је овај потез повезан са оним што лансирање имплицира: производи за безбедност засновани на вештачкој интелигенцији могли би да замене делове постојећих безбедносних токова рада, а не само да их прошире. Та прича се разликује од „вештачка интелигенција помаже аналитичарима“, јер указује на директно замењивање производа. Ако се предузеће ослања на места и претплате за застареле алате, тржишта могу протумачити понуде безбедности засноване на вештачкој интелигенцији као облик притиска на маржу. Дубља забринутост је прелазак са продаје алата на продају резултата.

Могу ли и даље да користим апликације трећих страна са Claude претплатама након ажурирања услова Anthropic-а?

Ажурирање пооштрава ограничења у вези са „појасевима“ трећих страна и незваничним интеграцијама, остављајући мање простора за апликације-омотаче. Ако ваш производ зависи од усмеравања приступа претплати преко треће стране, постаје разумно поново проверити који обрасци коришћења остају дозвољени. Уобичајена заштита је изградња на званичним API-јима и документованим интеграцијама, тако да сте мање изложени када се услови пооштре. Третирајте промене политика као понављајући ризик платформе, а не као једнократно изненађење.

Да ли постоји непогрешив начин за откривање медија генерисаних вештачком интелигенцијом?

Мајкрософтово истраживање тврди да не постоји један поуздан детектор ризика, а претерано самопоуздање у било коју методу може се лоше одразити. У многим процесима, безбеднији став остаје слојевит: вишеструки сигнали, вероватносно бодовање и стално поновно тестирање како се модели развијају. Детекција временом постаје супарничка, слично филтрирању спама, али са већим улогом. Резултати најбоље функционишу као индикатори ризика, а не као дефинитивни докази.

Шта би програмери требало да очекују од Google Gemini 3.1 Pro презентације о „скоку образложења“?

Практични тест је да ли се модел чини поузданијим у свакодневним радним процесима: мање чудних промашаја, боље руковање задацима на дужи хоризонт и мање „поуздано, али погрешно“. Најављена побољшања и бенчмаркови пружају драгоцен контекст, али свакодневна поузданост је често важнија од тврдњи са табеле. Стабилан приступ је валидација у односу на сопствене задатке, упите и систем за евалуацију. Обратите пажњу на доследност под бучним, несавршеним улазима.

Зашто велике лабораторије за вештачку интелигенцију појачавају лобирање и шта би то могло да промени?

Како системи вештачке интелигенције постају све економски и друштвено значајнији, велики произвођачи инсистирају на регулаторним приступима под којима могу да послују. То се често претвара у залагање за „одговорна“ правила која и даље очувају раст и брзину производа. Образац је познат: прво градите, па брзо обликујте оквир политике пре него што се он учврсти. За све остале, притисак на транспарентност, конкуренцију и начин на који се трошкови усклађености на крају расподељују расте.

Јучерашње вести о вештачкој интелигенцији: 19. фебруар 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог