Вести о вештачкој интелигенцији, 3. фебруар 2026

Резиме вести о вештачкој интелигенцији: 3. фебруар 2026

🧠 Нвидиа каже да ће размотрити улагање у ОпенАИ ИПО, рекао је Хуанг за CNBC

Јенсен Хуанг из Нвидије јавно је сигнализирао да је компанија и даље отворена за подршку следећем мега-прикупљању средстава компаније OpenAI - па чак и евентуалној почетној јавној понуди акција (IPO). То носи енергију „добро смо, све је у реду“... али такође, то је део поруке.

Прича се овде о размерама: приче о огромној рунди (и огромној процени вредности) непрестано круже, док извештаји такође наговештавају да је OpenAI разматрао алтернативе неким од најновијих Nvidia чипова. Нико не говори наглас „распад“, али се осећа слабашан мирис дима у кухињи.

🏭 Генерални директор Интела каже да ће компанија производити графичке процесоре, које је популаризовала Нвидија

Генерални директор Интела, Лип-Бу Тан, каже да Интел циља на графичке процесоре (GPU) - „златне грознице“ за модерну вештачку интелигенцију. И да, то је улазак на Нвидијин терен са „чизмама на ногама“.

Интел је такође ангажовао старијег архитекту (раније у Qualcomm-у) да води напоре у вези са графичким процесорима (GPU), са почетним фокусом на центре података. Подтекст је јасан: ако желите да се вратите у разговор о вештачкој интелигенцији (AI) у рачунарству, потребна вам је озбиљна прича о GPU-у, а не само презентација.

🕵️♀️ ICO најављује истрагу против Грока

Британска агенција за заштиту података формално истражује руковање личним подацима везаним за систем Грок, плус потенцијал система да генерише штетне сексуализоване слике. Тај други део је звоно за узбуну које можете чути са улице.

Истрага именује и X ентитет који контролише податке у контексту ЕУ/ЕЕА и сам xAI - у основи: „ко га је направио, ко га је водио, ко га је пустио на слободу?“ То је један од оних тренутака када се „брзо кретање“ сусреће са „папирологијом која уједа“

💻 OpenAI се пребацује ка моделу аутономног тима са лансирањем Codex Desktop-а

OpenAI је наводно покренуо десктоп апликацију за macOS за Codex, представљајући је мање као аутоматско довршавање, а више као управљање малим агентима за кодирање који паралелно извршавају задатке. То је или будућност софтвера - или веома скуп начин за измишљање нових класа грешака.

Циљ је „дуготрајни задаци“ плус надзор, са стварима попут „песочњака“ и алата за радни ток како би се спречило да агенти газе ваше складиште. То је промена става: не куцате, већ режирате - као филмски сет где глумци повремено преправљају сценарио.

🧯 „Ширење дипфејкова и још пратилаца вештачке интелигенције“: седам закључака из најновијег извештаја о безбедности вештачке интелигенције

Објавио се велики међународни извештај о безбедности вештачке интелигенције, у којем се у суштини наводи да могућности скачу - али да је контрола и даље несигурна. Извештај указује на „неравномерне“ перформансе (једне секунде бриљантно, следеће самоуверено погрешно), што делује... болно познато.

Такође се истиче убрзавање дипфејкова, растућа популарност вештачке интелигенције (са који изазивају мучнину ) и незгодан проблем двоструке употребе у биолошким/хемијским знањима. Утисак је следећи: мотор је постао бржи, волан није.

Честа питања

Шта је Nvidia рекла о улагању у OpenAI IPO и зашто је то важно?

Генерални директор компаније Nvidia, Јенсен Хуанг, рекао је да ће компанија размотрити инвестирање ако OpenAI коначно изађе на берзу, што је сигнал да је сарадња и даље стратешки значајна. У овом циклусу вести о вештачкој интелигенцији, подтекст је обим: веће рунде финансирања имају тенденцију да се претворе у већу потражњу за рачунарским ресурсима. То се такође чита као тихо уверавање тржиштима да велика партнерства у области вештачке интелигенције могу да се одрже стабилно чак и под конкурентским притиском.

Да ли OpenAI тражи алтернативе за најновије Nvidia чипове?

Извештаји указују да је OpenAI разматрао алтернативе неким од најновијих Nvidia чипова, а то може указивати на неколико практичних мотивација. У многим развојним процесима, тимови процењују више добављача како би смањили трошкове, избегли уска грла у снабдевању или подесили перформансе за одређена радна оптерећења. То не подразумева аутоматски раскид - чешће одражава задуженост, редундантност и континуирану оптимизацију у брзо променљивом хардверском окружењу.

Зашто Интел изненада наглашава графичке процесоре (GPU) за радна оптерећења са вештачком интелигенцијом?

Генерални директор Интела, Лип-Бу Тан, рекао је да ће Интел производити графичке процесоре (GPU), са почетним фокусом на центре података - што је експлицитан помак ка основној територији Нвидије. ГПУ-ови су „крачеви и лопате“ за модерно вештачко учење и закључивање, тако да је кредибилан план развоја GPU-а директан пут назад у разговор о рачунарству. Ове вести о вештачкој интелигенцији такође сугеришу да Интел жели да се такмичи на дубини платформе, не само на процесорима.

Шта британски ICO истражује у вези са Grok-ом и xAI-јем?

Канцеларија повереника за информације Уједињеног Краљевства (ICO) објавила је формалну истрагу о руковању личним подацима повезаним са системом Grok и потенцијалу система да генерише штетне сексуализоване слике. Истрага наводи име и ентитет X који контролише податке у контексту ЕУ/ЕЕА и xAI, фокусирајући се на то ко је одговоран за шта. Уобичајени исходи у случајевима попут овог укључују захтеве за информацијама, потребне измене процеса и потенцијалне мере спровођења закона.

Шта је Codex Desktop и како „агенти за кодирање“ мењају свакодневни рад?

Кодекс Десктоп је описан као macOS апликација позиционирана мање као аутоматско довршавање, а више као начин за надгледање паралелних, дуготрајних задатака кодирања. Уобичајени приступ је да се агенти третирају као млађи сарадници: додељивање посла уско ограниченог домета, захтевање контролних тачака и преглед резултата пре спајања. Алати попут „песчаника“ и заштитних ограда тока рада су важни јер се агентски системи могу брзо кретати - и такође могу увести нове, изненађујуће режиме отказа.

Који су најважнији закључци из најновијег извештаја о безбедности вештачке интелигенције (дипфејкови, пратиоци, двострука намена)?

Извештај истиче да се могућности вештачке интелигенције убрзавају док контрола остаје неуједначена, укључујући „неравномерне“ перформансе које могу да варирају од одличних до самоуверено погрешних. Такође указује на убрзане дипфејкове, све већу употребу вештачке интелигенције са ризицима емоционалне везаности и забринутости због двоструке употребе у биолошком/хемијском знању. Као одговор на то, организације обично улажу у праћење, „црвени тим“, заштитне ограде политика и јасне путеве ескалације када се модели понашају неочекивано.

Јучерашње вести о вештачкој интелигенцији: 2. фебруар 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог