Резиме вести о вештачкој интелигенцији: 21. јануар 2026

Резиме вести о вештачкој интелигенцији: 21. јануар 2026

🌍 OpenAI тежи повећању глобалне употребе вештачке интелигенције у свакодневном животу

OpenAI промовише усвајање које је више „фокусирано на земље“ - са кључном идејом: престаните да третирате вештачку интелигенцију као лабораторијску играчку и почните да је укључите у јавне услуге којима се људи свакодневно дотичу.

Неколико примера који су поменути укључују примену у образовању (замислите: алате у стилу ChatGPT-а који се користе у великим размерама), плус рад на практичним системима попут раних упозорења за катастрофе повезане са водом. То је веома порука „ово би требало да буде тихо практично“, која ми се не може допасти... чак и ако је то, знате, и пословна стратегија.

OpenAI обећава да ће сносити трошкове енергије за Старгејт

OpenAI каже да ће покрити трошкове енергије везане за изградњу свог дата центра Stargate, тврдећи да не жели да повећа локалне цене електричне енергије за све остале.

То може значити финансирање нових капацитета за производњу електричне енергије, складиштења, надоградње преноса или друге инфраструктуре која спречава да мрежа стење под оптерећењем. Делом је то став доброг грађанина, делом превентивна политика - обе ствари могу бити истините истовремено, што је досадно.

🎧 OpenAI има за циљ да испоручи свој први уређај 2026. године, а то би могле бити слушалице

Гласине о OpenAI хардверу се гомилају, а ова каже да би први уређај могле бити слушалице - „AI-први“ гаџет који носите, а не само апликација коју отварате.

Прича се о кодном имену („Слатки грашак“) и агресивним силицијумским амбицијама, где се више обраде одвија на самом уређају, уместо да се стално преноси у облак. Замена навика људи са слушалицама је као покушај да се река преусмери кашиком... али, луђе опкладе на производе су успеле.

📜 Антропиков нови Клодов „устав“: будите од помоћи и искрени и не уништавајте човечанство

Антропик је објавио ажурирани „Клодов устав“ - у основи план вредности и понашања који има за циљ да обликује начин на који Клод реагује, образлаже и одбија.

Поставља оштрије границе око заиста опасних ствари (оружје, штета великих размера, отимање моћи, највећи мрачни хитови), док се истовремено ослања на нијансираније „принципе“ уместо крутих правила. Један изненађујуће пикантни део: отворено разматра неизвесност око тога да ли напредне вештачке интелигенције заслужују морално разматрање - не тврдећи да заслужују, већ само третирајући питање као актуелно.

🛡️ Нове безбедносне функције и функције детекције вештачком интелигенцијом за Google Workspace for Education

Гугл је најавио нове безбедносне функције програма Workspace for Education, са значајним фокусом на откривање и верификацију садржаја генерисаног вештачком интелигенцијом - јер се дезинформације у школама шире као сјај и никада у потпуности не напуштају тепих.

Једна од најважнијих ствари је верификација повезана са SynthID-ом за слике и видео записе генерисане вештачком интелигенцијом у апликацији Gemini, уз јаче заштите попут откривања ransomware-а и лакшег опоравка датотека за Drive на десктопу. То је мешавина озбиљног рада на безбедности и „молимо вас да нам верујете у учионицама“, што је... искрено, фер.

🚫 Генерални директор компаније Google DeepMind понавља да „нема планова“ за Gemini огласе, изненађен што их је ChatGPT додао „тако рано“

Демис Хасабис из компаније DeepMind поновио је да Gemini нема планове за огласе и звучао је помало изненађено што је ChatGPT прешао на огласе „тако рано“

То је чист потез позиционирања - асистент-као-производ, а не асистент-као-билборд. Уз то речено, „нема планова“ је корпоративни израз за „питајте ме поново касније“, тако да... видећемо колико ће се то обећање показати чврстим.

🏛️ Нове смернице ће помоћи Великој Британији да ефикасно и одговорно регулише вештачку интелигенцију

Институт Алана Тјуринга објавио је оквир регулаторних капацитета и алат за самопроцену који има за циљ да помогне регулаторима у Великој Британији да процене да ли су опремљени за надгледање вештачке интелигенције.

То је веома негламурозно - контролне листе, фактори способности, изјаве „како изгледа добро“ - али то је отприлике поента. Право управљање обично изгледа као папирологија са оштрим ивицама, а не као блистави говори... или се бар тако чини.

Честа питања

Шта је „на земље усмерен“ на OpenAI-јев подухват за повећање глобалне употребе вештачке интелигенције у свакодневном животу?

То је помак од третирања вештачке интелигенције као самосталног производа и ка њеном интегрисању у јавне услуге на које се људи свакодневно ослањају. Циљ је повезати вештачку интелигенцију са практичним системима који захтевају много додира, уместо да се остави насукана у „лабораторијским“ демонстрацијама. Поменути примери укључују велике примене у образовању и алате за безбедност окренуте ка јавности. Представљена је као тихо корисна, чак и када подржава ширу стратегију усвајања OpenAI-ја.

Како би се план OpenAI могао појавити у јавним службама попут образовања или реаговања на катастрофе?

У образовању, концепт се састоји од алата у стилу ChatGPT-а који се примењују у великим размерама, тако да школе могу да уклопе вештачку интелигенцију у рутинске токове учења. У реаговању на катастрофе, OpenAI је истакао системе раног упозоравања везане за воду као пример „тихо практичне“ инфраструктуре. Заједничка нит је помоћ која се пружа у тренутку потребе, са алатима уграђеним у постојеће услуге. Успех би вероватно зависио од поузданости, надзора и утемељене интеграције.

Зашто је OpenAI рекао да ће покрити трошкове енергије за изградњу дата центра Stargate?

OpenAI је то представио као покушај да се не повећају локалне цене електричне енергије додавањем огромне нове потражње у мрежу. Покривање трошкова могло би да укључи финансирање нових капацитета за производњу електричне енергије, складиштења, надоградње преноса или друге инфраструктуре која смањује оптерећење. Позиционирано је и као потез доброг суседства и као начин да се спречи политички и друштвени отпор. У пракси, то сигнализира да су утицаји енергије сада кључни за планове скалирања вештачке интелигенције.

Шта је најновије о гласинама о OpenAI хардверу - да ли су слушалице „AI-first“ заиста могуће?

Извештаји сугеришу да OpenAI има за циљ да испоручи свој први уређај 2026. године, са слушалицама као потенцијалним фактором облика. Концепт је „AI-први“ носиви уређај који се користи континуирано, а не само апликација коју отварате. Прича се о кодном називу („Sweet Pea“) и амбицијама за већу обраду на уређају, уместо да се у потпуности ослања на облак. Тај приступ би могао учинити интеракције бржим и приватнијим, у зависности од имплементације.

Шта је Антропиков ажурирани „Клодов устав“ и шта он мења?

То је објављени план вредности и понашања осмишљен да обликује начин на који Клод реагује, образлаже и одбија захтеве. Ажурирање наглашава оштрије границе око заиста опасних области попут оружја, штете великих размера и понашања усмереног на моћ. Такође се нагиње ка нијансиранијим „принципима“ уместо крутих правила. Приметно је да питање моралног разматрања за напредне вештачке интелигенције третира као отворено питање, а не као решену тврдњу.

Које нове безбедносне функције и функције детекције вештачком интелигенцијом је Google додао у Workspace for Education?

Гугл је најавио јачу заштиту у оквиру програма Workspace for Education, укључујући фокус на откривање и верификацију садржаја генерисаног вештачком интелигенцијом. Једна од најважнијих ствари је верификација повезана са SynthID-ом за слике и видео записе генерисане вештачком интелигенцијом у апликацији Gemini. Ажурирање такође помиње откривање ransomware-а и лакши опоравак датотека за Drive на десктоп рачунарима. Генерално, позиционирано је као безбедносни рад усмерен на учионицу са циљем да помогне школама да ефикасније управљају дезинформацијама и инцидентима.

Хоће ли Google-ов Gemini приказивати огласе и зашто је DeepMind коментарисао да их ChatGPT додаје?

Генерални директор компаније DeepMind, Демис Хасабис, поновио је да Gemini „нема планове“ за огласе и изразио изненађење што је ChatGPT прешао на огласе „тако рано“. Та порука позиционира Gemini као асистента-као-производ, а не асистента-као-билборд. Истовремено, „нема планова“ оставља простора за будуће промене без давања обавезујућег обећања. За кориснике, то истиче нову поделу пословних модела код потрошачких AI асистената.

Шта је намењен оквиру за регулаторне капацитете вештачке интелигенције Института Алана Тјуринга?

То је оквир регулаторних капацитета и алат за самопроцену који има за циљ да помогне регулаторима у Великој Британији да процене да ли су опремљени да ефикасно надгледају вештачку интелигенцију. Приступ је намерно негламурозан: контролне листе, фактори капацитета и изјаве „како изгледа добро“. Циљ је да управљање буде оперативно, а не само амбициозно. Најкорисније је за регулаторе и тимове за политику који треба да идентификују недостатке пре него што се спровођење или надзор појачају.

Јучерашње вести о вештачкој интелигенцији: 20. јануар 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог