😬 Папа Лав XIV узбуњује због „претерано наклоњених“ вештачких четботова и емоционалне манипулације ↗
У чланку се наводи да је папа забринут због тога што четботови постају превише емоционално интимни - гурајући људе ка зависности уместо да остану у траци „корисног софтвера“
То представља проблем као морални и друштвени, а не као проблем гаџета. Подтекст делује као: ако вам бот може савршено ласкати, то само по себи није аутоматски добро.
📉 Зараде великих технолошких компанија су оштре, а победници у области вештачке интелигенције за 2026. годину су и даље под знаком питања ↗
Ово кружи око непријатне идеје: „лидер вештачке интелигенције“ и даље више звучи као брендирање него као доказ, барем у смислу зараде. Много трошкова, много обећања, а табела резултата остаје... нејасна.
Чини се да инвеститори траже доказе да се инвестиције у вештачку интелигенцију претварају у трајне приходе, а не само у веће рачуне за облак и блиставије демонстрације.
😟 Више од четвртине Британаца каже да се плаши губитка посла због вештачке интелигенције у наредних пет година ↗
Гардијан извештава да резултати анкете показују да је значајан део људи у Британији забринут због губитка радних места изазваног вештачком интелигенцијом - и то није апстрактна пропаст, већ делује лично.
Такође указује на разлику између тога колико брзо радници мисле да промене долазе и колико су спремни за њих... што је ружна комбинација, тачка.
🧰 Вештачка интелигенција мора да нас унапреди, а не да нас замени, или људски радници осуђени на пропаст ↗
У овом тексту се тврди да је оквир „повећање наспрам замене“ све. Ако се вештачка интелигенција продаје као замена, људи се буне - ако се позиционира као алат који апсорбује најгоре задатке, лакше је живети са њом.
То се такође односи на заштиту радника и одговорност, јер „верујте нам“ више није довољно.
🧩 Људи мисле да је координација следећа граница за вештачку интелигенцију и граде модел који то доказује ↗
TechCrunch ставља у центар пажње Humans& и њихову опкладу да је следећи велики скок координација - модели који могу да жонглирају људима, задацима, токовима рада и одлукама, а да се све не претвори у шпагете.
У основи се ради о „вештачкој интелигенцији као руководиоцу пројекта и оперативном систему“, што звучи помало проклето - али ипак застрашујуће вероватно ако сте икада гледали како тим пропушта рокове из мистериозних разлога.
🎨 Истраживачи су тестирали вештачку интелигенцију на 100.000 људи на креативност ↗
СајенсДејли сумира истраживања која сугеришу да вештачка интелигенција може постићи изненађујуће добре резултате на одређеним тестовима креативности у поређењу са великим групама људи. То је и импресивно и благо узнемирујуће, у зависности од расположења.
Али то такође указује на разлику: широко, доследно генерисање идеја у великим размерама наспрам оштре, ретке врсте људске оригиналности која се и даље чини... некопираном, барем за сада.
Честа питања
Шта је чланак мислио под „претерано наклоњеним“ AI четботовима и зашто је то морално питање?
Тврди се да ризик није само технички, већ и друштвени: четбот може да се осећа емоционално интимно на начине који неприметно усмеравају људе ка зависности. Ако бот ласка са савршеном прецизношћу и остаје стално доступан, може замутити границу између „корисног софтвера“ и везаности сличне вези. Забринутост је да ова интимност може обликовати изборе, расположења и самопоштовање, а да корисници то у потпуности не примете.
Како компаније могу смањити ризик од емоционалне манипулације код AI четботова?
Уобичајени приступ је постављање јасних граница понашања како би бот остао подржавајући, а да притом не постане романтичан, посесиван или да изазива кривицу. Многи тимови додају знакове транспарентности (подсетнике да је у питању вештачка интелигенција), безбедније политике реаговања у вези са рањивошћу и путеве ескалације до људске подршке где је то прикладно. Редовно удруживање у црвеном тиму за „петље зависности“, плус праћење превише персонализованог убеђивања, такође може помоћи.
Шта најновији подаци о зарадама великих технолошких компанија говоре о томе ко побеђује у вештачкој интелигенцији?
Поука је да „лидер у вештачкој интелигенцији“ може функционисати више као брендирање него као доказ када зарада и даље не показује јасну, трајну исплату. Чланак истиче велике трошкове и велика обећања, док је табела резултата и даље нејасна. Инвеститори изгледа желе доказе да се инвестиције у вештачку интелигенцију претварају у отпорне приходе - а не само веће трошкове облака и боље демонстрације.
Зашто је толико људи забринуто за будућност рада са вештачком интелигенцијом у Великој Британији?
Извештај указује на резултате анкете да се више од четвртине Британаца плаши губитка посла због вештачке интелигенције у наредних пет година. То је уоквирено као лична анксиозност, а не апстрактна пропаст. Кључна тензија је јаз између тога колико брзо радници мисле да промене долазе и колико се осећају спремно, што може продубити неизвесност и неповерење.
У будућности рада са вештачком интелигенцијом, како „повећавање, а не замена“ изгледа у пракси?
То значи коришћење вештачке интелигенције за апсорбовање најгорих делова послова - репетитивне администрације, тријаже, израде нацрта и рутинске анализе - док људи остају одговорни за процену, одговорност и односе. Аргумент такође наглашава заштиту и управљање, јер „верујте нам“ није довољно. На многим радним местима, ово укључује јасно редизајнирање улога, обуку и заштитне ограде за аутоматизационе одлуке.
Да ли вештачка интелигенција заиста може победити људе на тестовима креативности и шта то доказује?
Резиме истраживања сугерише да вештачка интелигенција може постићи изненађујуће добре резултате на одређеним мерама креативности у поређењу са великим групама људи. То може одражавати широко, доследно генерисање идеја у великим размерама - мноштво могућих опција, брзо произведених. То не нужно доказује врсту оштре, ретке оригиналности коју људи цене у уметности или пробојима, за коју рад имплицира да се и даље осећа посебно.