Вести о вештачкој интелигенцији, 22. фебруар 2026

Резиме вести о вештачкој интелигенцији: 22. фебруар 2026

🏫 У неким школама, четботови испитују ученике о њиховом раду. Али револуција вештачке интелигенције забрињава наставнике

Неке аустралијске школе испробавају оштрији заокрет у „покажи свој рад“ – ученици заврше задатак, а затим их четбот са вештачком интелигенцијом испитује унапред и назад како би проверио да ли разумеју шта су предали. У основи је то усмени испит, али са машином која пита „шта тиме мислиш?“ док не почнеш да се врпољиш.

Већа брига је неравномерно увођење: један стручни рад упозорава да би брзи усвајачи могли да брзо напредују док други заостају, стварајући образовни систем са две брзине. Наставници такође стално указују на познате - и даље озбиљне - проблеме: приватност, благостање и како спречити да „помоћ вештачке интелигенције“ пређе у „вештачка интелигенција је то урадила“.

👮 Метрополитанска полиција користи алате вештачке интелигенције које је обезбедио Палантир како би упозорила на недолично понашање полицајаца

Лондонска метропола користи вештачку интелигенцију коју је обезбедио Палантир за анализу интерних образаца радне снаге - болести, одсуства, прековремени рад - тражећи сигнале који би могли бити повезани са проблемима професионалних стандарда. Представљена је као временски ограничена пилот фаза и, што је кључно, метропола каже да људи и даље доносе стварне одлуке... али да „и даље“ обавља много посла.

Полицијска федерација није одушевљена, називајући то „аутоматизованом сумњом“ и упозоравајући на непрозирне алате који погрешно тумаче стрес и оптерећење послом као неправилности. То је један од оних тренутака када технологија звучи уредно на слајду, а затим замислите како се осећа на терену и постане оштро боцкаста.

🛡️ Британски надзорник за приватност упозорава на слике генерисане вештачком интелигенцијом у заједничком саопштењу

Британски ICO придружио се другим регулаторима у заједничком упозорењу о сликама генерисаним вештачком интелигенцијом које приказују идентификоване особе без њиховог пристанка - у основи: немојте третирати „то је синтетичко“ као магични изговор. Порука је да се рано изграде заштитне мере и ангажују регулатори уместо да се предузме класичан технолошки потез првог слања, а касније извињења.

Такође истичу повећане ризике за децу, што је логично, јер када се ово прошири, то је као покушај да се шљокице врате у теглу. Поента је да су приватност и достојанство намењени да преживе модни циклус, или се бар тако чини.

🪖 Амерички министар одбране Хегсет позвао је извршног директора компаније Антропик на тешке разговоре о војној употреби ракете Клод, извештава Аксиос

Ројтерс извештава да ће се амерички министар одбране састати са извршним директором компаније Антропик ради, како је описано, конфронтационијег разговора о војној употреби модела Клод. Пентагон наводно жели да главни добављачи вештачке интелигенције учине моделе доступним на поверљивим мрежама са мање ограничења - а Антропик се опира сваком ублажавању заштитних мера.

Подтекст звучи као класична дилема „брзо се крећи, али... са укљученим ракетама“. Ако стране не могу да се договоре о заштитним оградама, однос би могао да се затегне или чак пукне - али Антропик такође сигнализира да разговори са владом остају конструктивни, тако да јесу напети, али не и потпуни прекид (још увек).

🧠 ChatGPT - Белешке о издању

Белешке о издању OpenAI-а указују на проширени контекстни прозор за режим „размишљања“ - што значи да можете дати моделу више текста и да дуже нити буду кохерентне без губитка ранијих детаља. Ако сте икада видели како модел „заборавља“ нешто што сте буквално управо рекли (бол), ово је усмерено управо на то.

То је веома штреберска надоградња која тихо мења оно што је практично: дужа документација, замршенији пројекти, више пространих истраживачких сесија. Није гламурозно, али је то она врста промене водоводних инсталација која одједном чини да цела кућа делује веће.

Честа питања

Шта значи када школе користе четботове да „испитају“ ученике о задацима?

У неким аустралијским школама, ученици заврше задатак, а затим пролазе кроз размену мишљења са вештачком интелигенцијом и четботом који испитује њихово размишљање. То функционише као усмени састанак, терајући ученике да објасне шта су написали и зашто. Сврха је да се провери разумевање, а не само резултат. Такође може открити празнине када ученик не може да одбрани кључне тврдње.

Како би четботови са вештачком интелигенцијом у школама могли да створе „двобрзински“ образовни систем?

Један стручни рад упозорава да би школе које брзо усвајају технологију могле да напредују, док би школе које спорије напредују могле да назадују. Ако неке школе примене алате вештачке интелигенције за процену разумевања, подршку учењу или спречавање злоупотребе, могу брже да подигну резултате. Другима можда недостаје буџет, капацитет особља или јасноћа политике за увођење упоредивих система. То неравномерно усвајање може проширити постојеће разлике у ресурсима и постигнућима.

Како наставници покушавају да спрече да се „помоћ вештачке интелигенције“ претвори у „вештачка интелигенција је то урадила“?

Уобичајени приступ је померање процене ка процесу и објашњењу, а не само ка готовом производу. Постављање питања у стилу чет-бота, нацрти, рефлексије или усмене провере могу отежати предају рада који не разумете. Наставници такође могу поставити чвршће границе у погледу прихватљиве помоћи, као што је брејнсторминг у односу на потпуно преписивање. Нагласак остаје на демонстрирању разумевања, а не на контроли сваког алата.

Који проблеми са приватношћу и благостањем се јављају када се вештачка интелигенција користи у учионицама?

Наставници стално изражавају забринутост око тога који се подаци о ученицима прикупљају, где се чувају и ко може да им приступи. Постоје и забринутости за добробит ако се ученици осећају стално праћеним или под притиском машински вођених питања. Деца су посебна ризична група, јер се осетљиве информације могу ширити или остати у системима на неочекиване начине. Многе школе имају за циљ да рано успоставе заштитне мере, уместо да покушавају да их касније накнадно уграде.

Како Метрополитенска полиција користи вештачку интелигенцију коју обезбеђује Палантир да би означила потенцијално недолично понашање полицајаца?

Лондонска метрополитанска полиција користи вештачку интелигенцију коју је обезбедио Палантир за анализу образаца рада радне снаге, као што су болест, одсуства и прековремени рад. Циљ је да се уоче сигнали који би могли бити повезани са проблемима професионалних стандарда. Описан је као временски ограничен пилот пројекат, а метрополитанска полиција каже да људи и даље доносе одлуке. Критичари тврде да алат може деловати као „аутоматизована сумња“ ако стрес тумачи као неправилно поступање.

Зашто су полицијски синдикати забринути због „аутоматизоване сумње“ коју изазивају алати за надзор вештачке интелигенције?

Полицијска федерација забринута је да непрозирни модели могу закључити о недоличном понашању из образаца који имају бенигна објашњења. Скокови у обиму посла, здравствени проблеми и стрес могу померити присуство или прековремени рад без имплицирања да је у питању недолично понашање. Ако логика алата није транспарентна, полицајцима је теже да оспоре заставице или менаџерима да калибришу праведне прагове. Чак и уз људске одлуке, аутоматизовани сигнали и даље могу обликовати исходе.

На шта упозорава британски ICO у вези са сликама генерисаним вештачком интелигенцијом које могу да се препознају?

Британска агенција за заштиту приватности придружила се другим регулаторима у упозорењу да „синтетичко“ не значи без последица. Ако слика генерисана вештачком интелигенцијом приказује идентификовану особу без њеног пристанка, ризици за приватност и достојанство и даље важе. Регулатори наглашавају важност ране изградње заштитних мера и ангажовања надзора, уместо првог испоруке. Такође указују на повећане ризике за децу, где штета може брзо да се прошири када се садржај прошири.

Шта стоји иза наводног притиска Пентагона на Антропик у вези са војном употребом Клода?

Ројтерс извештава да ће се амерички министар одбране састати са извршним директором компаније Антропик ради оштријих разговора о војној употреби система Клод. Пентагон наводно жели да главни добављачи вештачке интелигенције учине моделе доступним на поверљивим мрежама са мање ограничења. Антропик се опирао лабавијим заштитним мерама, указујући на сукоб око заштитних ограда. Однос делује напето, иако обе стране сигнализирају да разговори остају конструктивни.

Шта се променило у напоменама о издању ChatGPT-а у вези са дужином контекста режима „Размишљање“?

Белешке о издању OpenAI-а указују на проширени контекстни прозор за режим „Размишљање“, што омогућава да се више текста смести у једну нит. У пракси, то може помоћи са дугим документима, сложеним пројектима и вишестепеним истраживањима где су ранији детаљи важни. То је надоградња у стилу водоинсталатера, а не блистава функција. Главна предност је мањи број изгубљених детаља током дужих сесија.

Јучерашње вести о вештачкој интелигенцији: 21. фебруар 2026

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог