🏛️ Влада ће створити нову лабораторију како би Велика Британија остала у брзој траци открића у области вештачке интелигенције ↗
Велика Британија оснива владину Лабораторију за фундаментална истраживања вештачке интелигенције, представљајући је као „посао без премца“ - онај који је ризичан, спор и понекад се исплати на начин да сви остали изгледају као да су задремали. ( GOV.UK )
Фокус није само на „већим моделима, више графичких процесора“ - већ на решавању упорних мана попут халуцинација, кратког памћења и непредвидивог резоновања, плус пружање истраживачима приступа озбиљним рачунарским ресурсима путем AI Research Resource-а. Звучи веома разумно... а такође, тихо, као покушај да се спречи да најбољи умови Велике Британије буду одмах усисани негде другде. ( GOV.UK )
🧨 Генерални директор Нвидије наговештава крај инвестиција у ОпенАИ и Антропик ↗
Јенсен Хуанг сигнализира да Нвидиа можда неће наставити да улаже у лабораторије за вештачку интелигенцију на исти начин - динамика почетних јавних понуда (и сам обим провера о којима се расправља) отежава спровођење таквог начина финансирања. ( Ројтерс )
То је промена тона коју вреди пратити: Nvidia је краљ пијука и лопата у целом овом буму, али наговештава да „поседовање делова рудара“ више није увек циљ. Или је можда само гласно осигуравање, што извршни директори раде, као да дишу. ( Ројтерс )
🧩 Ексклузивно: Велика технолошка група подржава Антропик у борби против Пентагона док инвеститори инсистирају на деескалацији сукоба око заштитних мера вештачке интелигенције ↗
Антропиков сукоб са Пентагоном претвара се у прави експрес лонац - инвеститори наводно желе да се температура смањи, док компанија покушава да се држи свог става у вези са заштитним мерама (посебно у вези са надзором). ( Ројтерс )
Подтекст приче је готово гласнији од самог текста: у ери вештачке интелигенције, формулација уговора није „правно црњење“, већ је у основи политика производа - и она одлучује да ли модел постаје алат, оружје или огромна обавеза. ( Ројтерс )
🪖 Сем Алтман признаје да OpenAI не може да контролише коришћење вештачке интелигенције од стране Пентагона ↗
Алтман је наводно рекао особљу да OpenAI не може да контролише како Пентагон користи своју вештачку интелигенцију након што је распоређена - што је слетело са тупим ударцем јер је именовало тачан страх око којег су људи кружили. ( Гардијан )
Шира позадина је ескалација трења између „помоћи ћемо, уз правила“ и „помоћи ћемо, тачка“, плус интерни и јавни одговор када се војно усвајање чини исхитреним или опортунистичким. Етика је овде мање уредна линија, а више проливање мокрог фарбања - сви газе у њега, а затим се расправљају о томе чија је ципела. ( Гардијан )
🧬 Нова стипендија за вештачку интелигенцију у геномици са Институтом Сангер и Google DeepMind-ом ↗
Институт Велком Сангер покреће академску стипендију коју финансира DeepMind, а која се фокусира на примену вештачке интелигенције у геномици - позиционирану као прво место те врсте за DeepMind стипендисту у овој специфичној области. ( sanger.ac.uk )
Оно што је занимљиво (и, искрено, помало освежавајуће) јесте нагласак на недовољно истраженим проблемима геномике где вештачка интелигенција није већ свуда - плус експлицитна напомена да DeepMind не усмерава истраживање колеге. То је као да некоме дате ракету и кажете „иди откриј нешто“, уместо „иди оптимизуј наш план“. ( sanger.ac.uk )
Честа питања
Шта је Лабораторија за фундаментална истраживања вештачке интелигенције коју подржава влада Велике Британије и шта ће она радити?
Влада финансира фундаменталну лабораторију за истраживање вештачке интелигенције, која се позиционира као истраживачки подухват „плавог неба“ - високоризичан посао који ће се можда исплатити са временом. Уместо да се концентрише само на скалирање све већих модела, циљ јој је да се бави сталним проблемима попут халуцинација, кратког памћења и непредвидивог резоновања. Идеја је да продори долазе из фундаменталних принципа, а не само из додавања више графичких процесора (GPU).
Како би британска лабораторија за фундаментална истраживања вештачке интелигенције могла да помогне истраживачима да приступе озбиљним рачунарским технологијама?
Уз Британску лабораторију за фундаментална истраживања вештачке интелигенције, план истиче приступ значајним рачунарским ресурсима путем Ресурса за истраживање вештачке интелигенције. У пракси, то обично значи да истраживачи могу да спроводе експерименте који би иначе били ограничени трошковима или инфраструктуром. Такође омогућава тимовима да тестирају идеје у размерама где проблеми попут поузданости и робусности постају конкретни, а не само теоријски.
Зашто Велика Британија ставља нагласак на халуцинације, кратко памћење и непредвидиво резоновање?
Те слабости су оне које се појављују током примене и могу брзо да наруше поверење. Наведени фокус сугерише да циљ није само могућност, већ поузданост - смањење измишљених резултата, побољшање начина на који модели обрађују дужи контекст и смањење погрешног резоновања. Та врста посла је често спорија и ризичнија, због чега се и назива фундаменталним истраживањем.
Шта заправо сигнализира промена тона компаније Нвидија о улагању у OpenAI или Anthropic?
Извештаји то представљају као наговештај да Nvidia можда неће наставити да улаже у граничне лабораторије на исти начин, посебно зато што динамика почетних јавних понуда (IPO) и огромни чекови компликују ту стратегију. Чак и као лидер у области хардвера за вештачку интелигенцију, сугерише да власнички удели нису увек најбољи потез. То би такође могла бити опрезна порука, што је уобичајено у коментарима руководилаца.
Зашто је спор Антропика са Пентагоном око „заштитног језика“ толико важан?
Кључна поента чланка је да формулација уговора може постати политика производа - посебно када се тиче надзора и других осетљивих употреба. Инвеститори наводно желе да деескалирају сукоб, док компанија покушава да се држи свог става у погледу заштитних мера. У многим применама вештачке интелигенције, те клаузуле обликују за шта се систем може користити и које ризике компанија ефикасно прихвата.
Шта значи када Сем Алтман каже да OpenAI не може да контролише како Пентагон користи вештачку интелигенцију?
Описује практично ограничење: када се алат једном примени, оригинални програмер може имати ограничену могућност да управља његовом употребом. То је јако важно јер указује на основни страх који људи изражавају око усвајања у војску – правила могу постојати у фази уговарања, али спровођење може бити тешко. Такође одражава ширу напетост између „помоћи, са ограничењима“ и „помоћи, без обзира на све“