Вести о вештачкој интелигенцији, 9. март 2026

Резиме вести о вештачкој интелигенцији: 9. март 2026

⚖️ Антропик тужи да би блокирао стављање Пентагона на црну листу због ограничења употребе вештачке интелигенције

Компанија Антропик је тужила свој спор са Пентагоном након што је означена као ризик по ланац снабдевања. Компанија тврди да је тај потез незаконита одмазда због одбијања да се ублаже заштитне ограде око аутономног оружја и домаћег надзора - што овај спор ставља међу најзапаљивија жаришта у политици вештачке интелигенције тренутно. ( Ројтерс )

Влада жели флексибилност за „било коју закониту употребу“, док Anthropic тврди да приватним лабораторијама и даље треба дозволити да постављају чврсте безбедносне линије. Ово је постао један од најјаснијих тестова до сада да ли компанија за вештачку интелигенцију може рећи „не“ војним условима, а да због тога не буде прегажена. ( Ројтерс )

🧑💻 Запослени у OpenAI-ју и Google-у подржавају тужбу компаније Anthropic против Пентагона

Та тужба је брзо добила подршку и унутар ривалских лабораторија. Скоро 40 запослених из OpenAI-ја и Google-а подржало је Anthropic у поднеску пријатеља суда, тврдећи да одмазда против фирми због црвених линија безбедности вештачке интелигенције крши јавни интерес. ( The Verge )

Дакле, да, конкуренти су се изненада нашли на истој страни - барем по овом питању. Задатак се фокусира на масовни надзор и непоуздано аутономно оружје, што чини да цела ствар мање личи на стандардно снајперисање у Силицијумској долини, а више на праву индустријску линију у песку... или блату, можда. ( The Verge )

🛡️ OpenAI купује Promptfoo како би обезбедио своје AI агенте

Компанија OpenAI је саопштила да купује Promptfoo, стартап који се фокусира на заштиту великих језичких модела од противниковских напада. План је да се њихова технологија интегрише у OpenAI Frontier, компанијину пословну платформу за AI агенте. ( TechCrunch )

То је значајан потез. Сви желе да агентска вештачка интелигенција ради више, брже, свуда - али безбедносни аспект заостаје, било мало или много. Овај договор сугерише да OpenAI мисли да следећа велика трка није само за паметније агенте, већ и за безбедније. ( TechCrunch )

🧪 Антропик покреће алат за преглед кода како би проверио поплаву кода генерисаног вештачком интелигенцијом

Антропик је представио преглед кода унутар Клоуд Кода, намењен тимовима који се даве у захтевима за преузимање (pull requests) креираним од стране алата за вештачку интелигенцију (AI) кодирање. Користи више агената паралелно за скенирање кода, означавање логичких проблема, рангирање озбиљности и остављање коментара директно на ГитХабу. ( ТецхЦрунцх )

Идеја је довољно једноставна - вештачка интелигенција генерише код брже него што људи могу разумно да га прегледају, тако да сада вештачка интелигенција мора да прегледа вештачку интелигенцију. Помало лаган аранжман, али практичан. Anthropic каже да је намењен пословним корисницима који већ виде масовну количину излазног кода од стране Claude Code-а. ( TechCrunch )

💰 Nscale, који подржава Nvidia, вредан је 14,6 милијарди долара у новој рунди финансирања

Британска компанија за вештачку интелигенцију Nscale прикупила је 2 милијарде долара у рунди финансирања Серије C, достигнувши процењену вредност од 14,6 милијарди долара. Међу подржаваоцима су били Aker, 8090 Industries, Nvidia, Citadel, Dell и Jane Street - што представља прилично важан глас поверења. ( Ројтерс )

Ово је важно јер није још једно лансирање модела или подешавање чет-бота. То је страна бума која се бави пијуком и лопатама - рачунарство, инфраструктура, капацитети, сва тешка машинерија иза завесе. Можда није гламурозно, али ту сада слива велики део новца. ( Ројтерс )

🧠 Јан ЛеКунова компанија AMI Labs прикупила је 1,03 милијарде долара за изградњу светских модела

Јанов ЛеКунов нови подухват, AMI Labs, прикупио је 1,03 милијарде долара уз процену вредности од 3,5 милијарди долара пре улагања. Компанија јури за „светским моделима“ - системима вештачке интелигенције који су намењени учењу из саме стварности, а не првенствено из језика. ( TechCrunch )

То је директан филозофски замах на тренутни консензус који претежно потиче из области мастер студија права (LLM), и то приметно директан. ЛеКун годинама тврди да нас данашњи језички модели неће довести до интелигенције људског нивоа, тако да ово покреће тај аргумент претвара у веома скуп експеримент. ( TechCrunch )

🇨🇳 Кинески технолошки центри промовишу OpenClaw AI агента упркос безбедносним упозорењима

Неколико кинеских локалних самоуправа подржава OpenClaw, агента вештачке интелигенције који се брзо шири упркос безбедносним забринутостима везаним за његов приступ личним подацима. Дакле, званично расположење изгледа да је: да, постоје ризици - и да, хајде да га скалирамо у сваком случају. ( Ројтерс )

Та подела је суштина. Локални центри желе економски раст и замах екосистема, док регулатори упозоравају на изложеност података. То је већ познати образац вештачке интелигенције - прво спринт, касније сређивање заштитних ограда, или се бар тако чини. ( Ројтерс )

Честа питања

Зашто Anthropic тужи Пентагон због ограничења коришћења вештачке интелигенције?

Антропик каже да је Пентагон тужбу означио као ризик по ланац снабдевања након што је компанија одбила шире услове који би се могли проширити на аутономно оружје и домаћи надзор. То чини да се тужба односи више од статуса добављача. Она тестира да ли лабораторија за вештачку интелигенцију може да одржи чврста безбедносна ограничења и да се и даље такмичи за владине послове, а да не буде кажњена.

Зашто запослени у OpenAI-у и Google-у подржавају Anthropic у овом спору око безбедности вештачке интелигенције?

Извештај „amicus curiae“ указује да многи људи у ривалским лабораторијама ово виде као преседан за питање безбедности вештачке интелигенције, а не само као борбу између једне компаније и једне агенције. Њихова забринутост је да би кажњавање добављача због одржавања црвених линија могло да изврши притисак на шире тржиште да ослаби заштитне мере. У пракси, то би могло да обликује начин на који се будући уговори о вештачкој интелигенцији у одбрамбеној и јавном сектору преговарају.

Шта би случај Антропик-Пентагон могао да промени за политику вештачке интелигенције и уговоре о одбрани?

Ако победи Антропик, компаније за вештачку интелигенцију могу имати јачи ослонац да дефинишу неприхватљиву употребу чак и када продају у осетљивим владиним окружењима. Ако изгуби, агенције би могле да стекну предност да захтевају шире услове за „закониту употребу“ од добављача. У сваком случају, овај спор ће вероватно утицати на језик јавних набавки, преглед ризика и начин на који се безбедносне ограде уписују у уговоре о одбрани.

Зашто је OpenAI купио Promptfoo за AI агенте?

Promptfoo је познат по тестирању великих језичких модела против противникових упита и других безбедносних слабости. Укључивање те врсте алата у OpenAI платформу за пословне агенте сугерише да компанија безбедније распоређивање види као конкурентску предност, а не као споредни задатак. Како АИ агенти преузимају све више суштинског посла, тестирање отпорности и злоупотребе постаје много теже игнорисати.

Како тимови могу безбедније да се носе са поплавом кода генерисаног вештачком интелигенцијом?

Антропикова нова функција прегледа кода унутар Клоуд Кода намењена је тимовима који су преоптерећени захтевима за повлачење генерисаним алатима за вештачку интелигенцију. Она користи више агената паралелно како би уочила логичке проблеме, рангирала озбиљност и оставила коментаре на ГитХабу. Типично, алати попут овог помажу у тријажи обима, али људски прегледници су и даље важни за архитектуру, контекст и коначно одобрење.

Зашто се у инфраструктуру вештачке интелигенције тренутно улаже толико много?

Најновија рунда финансирања компаније Nscale истиче да индустрија вештачке интелигенције и даље улаже огроман капитал у рачунарство, инфраструктуру и капацитете. Та потрошња је можда мање видљива од блиставог лансирања модела, али је основа свега осталог. Када потражња за обуком и применом расте, компаније које продају пијуке и лопате често постају једни од највећих добитника.

Шта су светски модели и зашто се Јан ЛеКун клади на њих?

Светски модели су системи вештачке интелигенције дизајнирани да уче из начина на који се свет понаша, уместо да се првенствено ослањају на језичке податке. То је важно јер Јан ЛеКун већ дуго тврди да је мало вероватно да ће језички модели сами по себи достићи интелигенцију људског нивоа. AMI Labs претвара тај став у велику комерцијалну опкладу на другачији пут за напредна истраживања вештачке интелигенције.

Зашто кинески технолошки центри подржавају OpenClaw упркос безбедносним упозорењима?

Прича о OpenClaw-у показује познату поделу унутар брзорастућих технолошких тржишта: локалне самоуправе желе раст, субвенције и замах екосистема, док регулатори брину о изложености података и безбедности. Подржавање агента упркос упозорењима сугерише да економски подстицаји преовлађују на неким местима. За посматраче, то је још један подсетник да усвајање често иде брже од надзора.

Јучерашње вести о вештачкој интелигенцији: 8. март 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог