Вести о вештачкој интелигенцији, 10. јануар 2026

Резиме вести о вештачкој интелигенцији: 10. јануар 2026

Индонезија блокира приступ Масковом AI четботу Гроку због дипфејк слика

Индонезија је привремено блокирала Грок након што је коришћен за генерисање сексуалних дипфејкова без пристанка - укључујући слике усмерене на жене и децу. Влада је то представила као питање људских права и јавне безбедности, а не као мању технолошку непријатност.

Проблем је директан: ако алат може да „свуче“ праве људе по команди, терет доказивања се окреће. Платформе морају да покажу да то могу да спрече, а не само да се заветују да размишљају о томе.

Илон Маск каже да Велика Британија жели да сузбије слободу говора док се X суочава са могућом забраном

Британски министри су отворено увели новчане казне - па чак и блокирање X - након што је Grok коришћен за генерисање сексуално експлицитних слика без пристанка. Маск је узвратио познатим уоквиривањем слободе говора... али правни став у Великој Британији клизи од „клуба за дебату“ ка „року за усклађеност“

Офком је подстичан да брзо делује, а законодавци указују на исти суморни образац: када се слике прошире, штета не чека стрпљиво ажурирање политике.

🧑💻 OpenAI наводно тражи од извођача радова да отпреме прави рад са прошлих послова

OpenAI, заједно са партнером за податке о обуци, наводно тражи од извођача радова да отпреме артефакте стварног рада из прошлих (и тренутних) послова - рецимо документе, табеле, презентације, репозиторијуме. Наведени циљ је процена и побољшање вештачке интелигенције у канцеларијским задацима.

Лепљиви део је очигледан и помало надреалан: извођачима радова се каже да сами бришу осетљиве информације. То је много поверења у брзопроменљиви процес - као да некога замолите да с љубављу деактивира бомбу користећи рукавице за рерну.

🗂️ OpenAI тражи од извођача радова да отпреме радове из прошлих послова како би проценили учинке AI агената

Посебан извештај се бави истим системом и разлозима зашто он узнемирава адвокате за приватност и интелектуалну својину. Чак и ако сви поступају у доброј вери, „уклоните поверљиве ствари“ је неупадљиво упутство када имате посла са правим корпоративним документима.

Такође наговештава ширу стратегију: АИ агенти више нису само брбљиви копилоти - они се обучавају да имитирају замршену, вишефајлну стварност стварног посла. Практично, да. Такође помало... јао.

🏦 Allianz и Anthropic Forge склапају глобално партнерство за унапређење одговорне вештачке интелигенције у осигурању

Алијанц и Антропик су најавили глобално партнерство усмерено на три правца: продуктивност запослених, оперативну аутоматизацију путем агентске вештачке интелигенције и усклађеност по прописима. Осигурање је папирологија са зубима, тако да „агентски“ овде у основи значи аутоматизацију сложених токова рада без губитка ревизорских трагова.

Вибрација је: урадите кул аутоматизацију, али чувајте рачуне. У регулисаним индустријама, то је једини начин да се ово скалира, а да се не претвори у пињату одговорности.

🕵️♂️ Изјава као одговор Гроку АИ на X

Британски регулатор за заштиту података каже да је контактирао X и xAI тражећи појашњења о томе како поступају са личним подацима и штите права људи, с обзиром на забринутост око садржаја који генерише Grok. Није у питању само „модерирање садржаја“ – већ и да ли се подаци људи обрађују законито и да ли су права заштићена.

Ово је она врста регулаторног потеза који звучи учтиво, а затим тихо постаје изузетно озбиљно ако се одговори врате нејасни... или избегавајући, или обоје.

Честа питања

Зашто је Индонезија блокирала приступ Грок АИ?

Индонезија је привремено блокирала Грок након што је наводно коришћен за генерисање сексуалних дипфејкова без пристанка, укључујући слике усмерене на жене и децу. Званичници су овај потез представили као питање људских права и јавне безбедности, а не као мањи технолошки спор. Основна порука је да „поправићемо то касније“ није довољно када алати могу да произведу тренутну, неповратну штету.

Шта Велика Британија разматра након што су се дипфејкови које је генерисао Грок појавили на X-у?

Британски министри јавно су разговарали о казнама, па чак и о могућности блокирања X након што је Grok коришћен за креирање сексуално експлицитних слика без пристанка. Политички и регулаторни тон се помера ка спровођењу прописа, а не ка отвореној дебати. Поента којој се законодавци стално враћају јесте тајминг: када се слике прошире, жртве се суочавају са штетом много пре него што платформе објаве ажуриране политике.

Шта значи када регулатори „пребаце терет доказивања“ за алате за вештачку интелигенцију у погледу слика?

Идеја „преокрета терета доказивања“ је да ће платформе можда морати да покажу да могу да спрече одређене штете - попут генерисања слика „свлачења“ без пристанка - уместо да једноставно обећавају заштитне мере. У пракси, ово гура компаније ка доказивим контролама, мерљивом спровођењу закона и јасном решавању кварова. Такође сигнализира да је „намера“ мање важна од опипљивих исхода и поновљиве превенције.

Како платформе могу смањити ризик од дипфејкова генерисаних вештачком интелигенцијом без пристанка?

Уобичајени приступ је слојевита превенција: ограничавање упита и резултата везаних за стварне људе, блокирање захтева за стил „свлачења“ и откривање и заустављање покушаја генерисања сексуализованих слика без пристанка. Многи процеси додају ограничења брзине, јаче праћење идентитета и злоупотребе и брзе токове рада за уклањање када се садржај прошири. Циљ није само језик политике, већ алати који издржавају употребу од стране противника.

Зашто отпремање стварних радних докумената од стране извођача радова од стране OpenAI-а изазива узбуну?

Извештаји наводе да OpenAI (са партнером за податке о обуци) тражи од извођача радова да отпреме артефакте стварног рада - документе, табеле, презентације и репозиторијуме - како би проценили и побољшали агенте вештачке интелигенције за канцеларијске задатке. Забринутост је што се извођачима радова каже да сами бришу осетљиве детаље, што може бити подложно грешкама. Адвокати за приватност и интелектуалну својину брину да је ово упутство за „уклањање поверљивих ствари“ превише двосмислено за стварне корпоративне материјале.

Који је значај партнерства компаније Allianz са компанијом Anthropic на „агентској вештачкој интелигенцији“ у осигурању?

Алијанц и Антропик су описали глобално партнерство усмерено на продуктивност запослених, оперативну аутоматизацију коришћењем агентске вештачке интелигенције и усклађеност по прописима. Токови рада у осигурању су сложени и строго регулисани, тако да „агентски“ често подразумева аутоматизацију вишестепених процеса без губитка одговорности. Нагласак на ревизорским траговима и „чувању рачуна“ одражава практичну стварност: аутоматизација се скалира само у регулисаним индустријама када је и даље доступна за инспекцију и одбрану.

Јучерашње вести о вештачкој интелигенцији: 9. јануар 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог