Вести о вештачкој интелигенцији, 18. јануар 2026

Резиме вести о вештачкој интелигенцији: 18. јануар 2026

💰 Секвоја тихо скаче у Антропикову мега-рунду

Секвоја - која је већ уплетена у више великих лабораторија за вештачку интелигенцију - наводно се придружује великом порасту броја радника у Антропику. То је онакав потез који целу причу о „сукобима, без сукоба“ подиже на виши ниво, без обзира да ли то неко признаје или не.

Наводно ће рунда укључивати и друге провере велике категорије, гурајући Антропик даље у ту врхунску, мега-процењену траку. Вибрација мехура се задржава. Ово би такође могла бити нова нормалност, иритантно.

📢 ChatGPT почиње да флертује са огласима - овог пута стварно

Наводно OpenAI тестира огласе за неке америчке кориснике на јефтинијим нивоима, док ће они који плаћају више остати без огласа. Обећање је да огласи неће утицати на одговоре - што је у теорији охрабрујуће, чак и ако рефлекс поверења мало потресе кориснике.

Већи подтекст је једноставан: закључивање је скупо, а саме претплате можда неће покрити све заувек... или се бар тако чини. Ипак, први пут када видите „спонзорисано“ било где у близини чет-бота, нешто се мења у вашој глави. Атмосфера се мења.

📚 Издавачи покушавају да се докопају тужбе компаније Гугл за обуку вештачке интелигенције

Група издавача покушава да се придружи тужби која оптужује Гугл да користи дела заштићена ауторским правима за обучавање својих система вештачке интелигенције. Ова правна борба се стално шири, попут пукотине у леду коју стално чујете, али не можете тачно да је лоцирате.

Ако им суд дозволи да уђу, случај би се могао заоштрити око тога шта „дозвола“ и „плаћање“ треба да значе за податке о обуци. Сви желе преседан - по могућству онај који им иде у корист, очигледно.

🕳️ Трик са „брзим убризгавањем“ наводно квари Близанце путем података са састанака

Истраживачи су описали напад у стилу „индиректног убризгавања у промпт“ где се злонамерне инструкције скривају унутар нормалног садржаја, а затим их асистент прати касније када корисник пита нешто невино. Без злонамерног софтвера, без чаробњаштва - само текст претворен у оружје, застрашујуће елегантан и помало одвратан.

То је подсетник да „LLM чита непоуздан текст“ није слатка функција - то је читава површина претње. Као да пуштате странце да вам цео дан убацују белешке у џепове, а затим се изненађујете када је једна од њих замка.

🎮 Генерални директор компаније Разер каже да играчи „већ воле вештачку интелигенцију“ - само мрзе ту етикету

Разеров говор на сајму CES осврнуо се на вештачку интелигенцију као практичан алат за радне процесе развоја игара - контролу квалитета, итерацију, те ствари - плус неке концепте који делују као помоћници и делују као реквизит научне фантастике.

Они такође у основи признају проблем са брендирањем: играчи не желе „AI помприку“, али желе паметније алате и глађа искуства. Назовите то „помоћ“ и људи климају главом. Назовите то „AI“ и људи понекад посегну за вилама.

⚖️ Суд прописује правила за адвокате који користе генеративну вештачку интелигенцију

Суд је објавио смернице које се у основи своде на: наравно, користите genAI - али посао је и даље ваш. Не можете препустити своје професионално расуђивање генератору текста, а затим се шокирати када он самоуверено нешто измисли.

Занимљиво је да откривање није потребно осим ако судија не затражи - али порука о одговорности је права кичма тога. Вештачка интелигенција може да пише и сређује... а такође и да халуцинира попут превише самоувереног приправника са склоношћу ка фикцији.

Честа питања

Шта придруживање Секвоје Антропиковој мега-рунди финансирања значи за инвестирање у вештачку интелигенцију и сукобе у вези са њима?

То сугерише да би велики инвеститори могли да наставе да подржавају више врхунских лабораторија за вештачку интелигенцију одједном, што предвидљиво оживљава дебату о „сукобима, без сукоба“. Када је исти фонд испреплетен у неколико лабораторија, људи почињу да испитују подстицаје, приступ и конкурентске предности. Пријављена мега-рунда такође наглашава кретање ка огромним чековима и високим проценама, чак и док „вибрације балона“ и даље висе у ваздуху.

Да ли ChatGPT добија огласе на бесплатним или јефтинијим нивоима и да ли ће они утицати на одговоре?

У извештају се наводи да OpenAI тестира огласе за неке америчке кориснике на јефтинијим нивоима, док они на боље плаћеним нивоима остају без огласа. Такође се тврди да огласи неће утицати на одговоре, што звучи охрабрујуће на папиру, али ипак може променити начин на који људи доживљавају поверење. Подтекст је економски: закључивање је скупо, а претплате можда неће покривати све заувек.

Зашто издавачи покушавају да се придруже тужби компаније Google за обуку вештачке интелигенције?

Група издавача жели да се придружи тужби у којој се тврди да је Гугл користио дела заштићена ауторским правима за обуку система вештачке интелигенције. Ако им суд дозволи, случај би могао да се заоштри око тога како би требало да изгледају „дозвола“ и „плаћање“ за податке за обуку. Више страна често значи већи притисак за јасан преседан - посебно око тога ко добија надокнаду и под којим условима.

Шта је напад „индиректним брзим убризгавањем“ и зашто је то велика ствар у вестима о вештачкој интелигенцији?

То је напад где су злонамерна упутства скривена унутар нормалног садржаја, а асистент их касније прати када корисник упути невин захтев. Кључни проблем је што модел чита непоуздан текст, претварајући свакодневне документе и поруке у потенцијалну површину претње. Убедљив је јер може да функционише без традиционалног злонамерног софтвера - само уз језик који је оружје уграђен у садржај.

Зашто играчи не воле ознаку „AI“, али и даље желе AI алате?

Генерални директор компаније Разер тврди да играчи већ воле практичне предности - брже осигурање квалитета, глађу итерацију и помоћнике у радном процесу - али негативно реагују на брендирање. Забринутост је често „непотребна вештачка интелигенција“ или садржај који делује мало напорно и неаутентично. Преформулисање у „помоћ“ или корисну функцију може учинити да се осећа као алат који побољшава искуство, а не замењује креативност.

Шта судска правила значе за адвокате који користе генеративну вештачку интелигенцију и да ли морају да их открију?

Описане смернице су једноставне: адвокати могу користити генеративну вештачку интелигенцију, али остају одговорни за рад и не могу препустити професионално расуђивање генератору текста. Ризик је халуцинација - самоуверено измишљене чињенице или цитати - тако да верификација и одговорност остају кључни. Откривање информација наводно није потребно осим ако судија не затражи, али порука је и даље: ви сте одговорни за исход.

Јучерашње вести о вештачкој интелигенцији: 17. јануар 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог