🏛️ Трамп налаже америчким агенцијама да одбаце вештачку интелигенцију компаније Антропик, док Пентагон назива стартап ризиком за снабдевање ↗
Амерички председник је наредио савезним агенцијама да престану да користе технологију компаније Anthropic, уз обавезни период постепеног укидања који претвара раскид са добављачима у прави политички тренутак. Пентагон је Anthropic окарактерисао као „ризик по ланац снабдевања“ - што је упадљива етикета за велику америчку лабораторију за вештачку интелигенцију. ( Ројтерс )
Антропик је сигнализирао да ће се супротставити том потезу, а епизода баца светло на већу борбу: правила безбедности компанија наспрам владиних захтева за максималном флексибилношћу. Ако сте купац из предузећа који посматра са стране, кључно питање је једноставно - када је купац држава, услови државе имају тенденцију да одређују време. ( Ројтерс )
⚖️ Пентагон прогласио антропик претњом по националну безбедност ↗
Ова верзија додаје више текстуре приступу у стилу црне листе и шта он значи за извођаче радова - не само агенције - које дотичу федерални екосистем. То је врста правила која се брзо шири, попут мастила у води, осим што је мастило папирологија јавне набавке. ( Вашингтон пост )
Такође постоји директан сукоб око тога да ли политике коришћења добављача модела могу ограничити војне примене, посебно у вези са осетљивим случајевима употребе. Реакција индустрије звучала је напето; преседан је оно што узнемирава људе, а не само једна компанија која је издвојена. ( Вашингтон пост )
☁️ OpenAI и Amazon објављују стратешко партнерство ↗
OpenAI је најавио стратешко партнерство са Amazon-ом које доноси OpenAI-јеву Frontier платформу на AWS, проширујући област где корисници могу да покрећу и управљају системима OpenAI нивоа. Ако сте пратили „ко шта хостује“ у вештачкој интелигенцији, ово се чита као промена моћи која смањује глас док помера много намештаја. ( OpenAI )
Такође се јавља као одговор на притисак потражње - више инфраструктурних опција, више дистрибутивних путева, мање једнотрачних аутопутева. Остаје да се види да ли ово чини имплементацију глаткијом или једноставно свима даје више дугмади за погрешно конфигурисање. ( OpenAI )
🧠 OpenAI покреће статеалну вештачку интелигенцију на AWS-у, сигнализирајући промену моћи контролне равни ↗
Computerworld-ов став: „stateful AI“ на AWS-у је више од хостовања - ради се о томе где се налази контролна раван и ко оркестрира идентитет, меморију и ток рада кроз сесије. Stateful системи могу се осећати много више „агентски“, како за боље тако и за о-не-шта-је-то-управо-урадило. ( Computerworld )
Подтекст је конкурентска геометрија: облаци желе да поседују платформски слој, лабораторије за вештачку интелигенцију желе да поседују површину производа, а купци желе да се он не поквари у 2 ујутру. Сви желе волан - чак и ако се праве да га не желе. ( Computerworld )
🔐 „Тиха“ промена кључа Google API-ја открила је податке о вештачкој интелигенцији Gemini - CSO ↗
Безбедносно упозорење кружи око Google Cloud API кључева и Gemini-ја - са извештајима да промене у начину функционисања кључева (или њиховог третирања) могу претворити претпоставке о „безбедности за уградњу“ у велики, пузећи ризик. Узнемирујући део је колико лако можете све да урадите „као што сте увек радили“, а да ипак завршите ван заштитне ограде. ( CSO Online )
Истраживачи су указали на широко распрострањене откривене кључеве у организацијама, што је мање појединачна грешка, а више подсетник да интеграције вештачке интелигенције проширују радијус експлозије досадног управљања старим тајнама. То су несексуалне ствари које најчешће гризу. ( SC Media )
📱🎶 Gemini Drops: Нова ажурирања апликације Gemini, фебруар ... ↗
Ажурирање апликације Google Gemini најављује побољшања Gemini 3.1 и режим резоновања „Deep Think“ позициониран за тешке научне и инжењерске проблеме, уз контролу нивоа претплатника. Паметнији режим, виша ограда, класична комбинација. ( blog.google )
Такође: Лирија 3 се помиње као музички модел који може да генерише кратке нумере из текста или слика у бета верзији. Шармантно је што исти екосистем који нуди хардкор резоновање такође нуди брзе, прилагођене саундтрекове - две брзине, један мењач. ( blog.google )
Честа питања
Шта мења то што америчке федералне агенције престају да користе антропску технологију?
Претвара избор добављача у правило набавке, са дефинисаним прозором за постепено укидање уместо ад хок, тимских одлука. Пентагонов оквир „ризика ланца снабдевања“ подиже улоге и сигнализира да подобност може бити обликована политиком више него квалитетом производа. За купце, то наглашава како захтеви јавног сектора могу надјачати преферирани оперативни модел добављача.
Како би ознака Пентагона „ризик ланца снабдевања“ могла утицати на извођаче радова и добављаче низводно?
Извештаји сугеришу да утицај није ограничен само на агенције; може се проширити на извођаче радова који се пресецају са федералним екосистемом. Чак и ако никада не купите модел директно, ваш стек може наследити ограничења кроз главне уговоре, клаузуле о протоку и провере усклађености. Због тога „ко шта користи“ брзо постаје проблем са папирологијом, а не само дебата о архитектури.
Шта би пословни купци требало да ураде ако се основни добављач вештачке интелигенције нађе ухваћен у федералној забрани набавке вештачке интелигенције?
Почните мапирањем места где се добављач појављује: директна употреба API-ја, уграђене функције и зависности од добављача. Направите план замене који покрива крајње тачке модела, шаблоне упита, основне вредности евалуације и одобрења управљања, тако да постепено укидање не постане прекид рада. У многим цевоводима, подешавања са два добављача и преносиве апстракције смањују радијус експлозије када се политика промени преко ноћи.
Да ли политике коришћења добављача вештачке интелигенције могу бити у супротности са владиним или војним захтевима?
Да - ова ситуација истиче директан сукоб око тога да ли правила коришћења добављача модела могу ограничити осетљиве апликације. Владе често заговарају максималну флексибилност, док лабораторије могу применити строжа ограничења у одређеним случајевима употребе. Ако услужујете клијенте из јавног сектора, планирајте уговорне услове који дају приоритет захтевима мисије и могу захтевати различите контроле или гаранције.
Шта партнерство OpenAI-Amazon значи за места где можете да покрећете OpenAI системе?
Проширује подручја где корисници могу да раде и управљају системима OpenAI нивоа доношењем OpenAI Frontier платформе на AWS. Практично, то може значити више инфраструктурних опција и мање једносмерних путева имплементације. Такође може померити одговорности: више дугмади за подешавање идентитета, приступа и операција, што може подржати отпорност, али и повећава ризик конфигурације.
Шта је „stateful AI“ на AWS-у и зашто је контролна раван важна?
„Stateful“ вештачка интелигенција подразумева системе који могу да преносе контекст кроз сесије, што може деловати више као агенти у стварним радним процесима. Питање контролне равни се фокусира на то ко оркестрира идентитет, меморију и радни процес сесије: ваш облак, лабораторија за вештачку интелигенцију или ваш сопствени слој платформе. То је важно за управљање, отклањање грешака и реаговање на инциденте када нешто крене наопако у 2 ујутру.
Како „тиха“ промена кључа за Google API може довести до ризика од излагања података Gemini-ја?
Ако се понашање кључева или очекивања у вези са руковањем кључевима промене, праксе које су некада изгледале безбедно - попут уграђивања кључева - могу постати опасне, а да тимови то не примете. Извештаји ово описују као проблем управљања тајнама, појачан интеграцијама вештачке интелигенције, а не као једну изоловану грешку. Уобичајени приступ је да се сви кључеви третирају као високоризични, често ротирају и чувају на страни сервера иза строгих контрола приступа.
Шта је ново у ажурирању апликације Gemini за фебруар 2026. и ко га добија?
Гугл истиче побољшања у Gemini 3.1 и режим резоновања „Deep Think“ позициониран за теже научне и инжењерске проблеме. Ажурирање такође наглашава приступ на нивоу претплатника, што значи да могућности и приступ могу да варирају у зависности од плана. Одвојено, Lyria 3 се помиње као музички модел који може да генерише кратке нумере из текста или слика у бета верзији, проширујући креативне алате апликације.
Честа питања
Шта мења то што америчке федералне агенције престају да користе антропску технологију?
Претвара избор добављача у правило набавке, са дефинисаним прозором за постепено укидање уместо ад хок, тимских одлука. Пентагонов оквир „ризика ланца снабдевања“ подиже улоге и сигнализира да подобност може бити обликована политиком више него квалитетом производа. За купце, то наглашава како захтеви јавног сектора могу надјачати преферирани оперативни модел добављача.
Како би ознака Пентагона „ризик ланца снабдевања“ могла утицати на извођаче радова и добављаче низводно?
Извештаји сугеришу да утицај није ограничен само на агенције; може се проширити на извођаче радова који се пресецају са федералним екосистемом. Чак и ако никада не купите модел директно, ваш стек може наследити ограничења кроз главне уговоре, клаузуле о протоку и провере усклађености. Због тога „ко шта користи“ брзо постаје проблем са папирологијом, а не само дебата о архитектури.
Шта би пословни купци требало да ураде ако се основни добављач вештачке интелигенције нађе ухваћен у федералној забрани набавке вештачке интелигенције?
Почните мапирањем места где се добављач појављује: директна употреба API-ја, уграђене функције и зависности од добављача. Направите план замене који покрива крајње тачке модела, шаблоне упита, основне вредности евалуације и одобрења управљања, тако да постепено укидање не постане прекид рада. У многим цевоводима, подешавања са два добављача и преносиве апстракције смањују радијус експлозије када се политика промени преко ноћи.
Да ли политике коришћења добављача вештачке интелигенције могу бити у супротности са владиним или војним захтевима?
Да - ова ситуација истиче директан сукоб око тога да ли правила коришћења добављача модела могу ограничити осетљиве апликације. Владе често заговарају максималну флексибилност, док лабораторије могу применити строжа ограничења у одређеним случајевима употребе. Ако услужујете клијенте из јавног сектора, планирајте уговорне услове који дају приоритет захтевима мисије и могу захтевати различите контроле или гаранције.
Шта партнерство OpenAI-Amazon значи за места где можете да покрећете OpenAI системе?
Проширује подручја где корисници могу да раде и управљају системима OpenAI нивоа доношењем OpenAI Frontier платформе на AWS. Практично, то може значити више инфраструктурних опција и мање једносмерних путева имплементације. Такође може померити одговорности: више дугмади за подешавање идентитета, приступа и операција, што може подржати отпорност, али и повећава ризик конфигурације.
Шта је „stateful AI“ на AWS-у и зашто је контролна раван важна?
„Stateful“ вештачка интелигенција подразумева системе који могу да преносе контекст кроз сесије, што може деловати више као агенти у стварним радним процесима. Питање контролне равни се фокусира на то ко оркестрира идентитет, меморију и радни процес сесије: ваш облак, лабораторија за вештачку интелигенцију или ваш сопствени слој платформе. То је важно за управљање, отклањање грешака и реаговање на инциденте када нешто крене наопако у 2 ујутру.
Како „тиха“ промена кључа за Google API може довести до ризика од излагања података Gemini-ја?
Ако се понашање кључева или очекивања у вези са руковањем кључевима промене, праксе које су некада изгледале безбедно - попут уграђивања кључева - могу постати опасне, а да тимови то не примете. Извештаји ово описују као проблем управљања тајнама, појачан интеграцијама вештачке интелигенције, а не као једну изоловану грешку. Уобичајени приступ је да се сви кључеви третирају као високоризични, често ротирају и чувају на страни сервера иза строгих контрола приступа.
Шта је ново у ажурирању апликације Gemini за фебруар 2026. и ко га добија?
Гугл истиче побољшања у Gemini 3.1 и режим резоновања „Deep Think“ позициониран за теже научне и инжењерске проблеме. Ажурирање такође наглашава приступ на нивоу претплатника, што значи да могућности и приступ могу да варирају у зависности од плана. Одвојено, Lyria 3 се помиње као музички модел који може да генерише кратке нумере из текста или слика у бета верзији, проширујући креативне алате апликације.