🏗️ САД подстичу компаније ка новом „компактном“ центру података за вештачку интелигенцију, извештава Политико ↗
САД наводно покушавају да наведу велике фирме да потпишу нови „споразум“ за центре података са вештачком интелигенцијом - у суштини скуп обавеза о томе како би требало руковати овим огромним рачунарским зградама.
Детаљи су још увек помало нејасни (класично), али правац делује познато: стандардизација очекивања у вези са енергијом, безбедношћу и евентуално извештавањем - учтива верзија политике „молим вас, не дозволите да се ово претвори у хаос“
🎬 Аутодеск тужи Гугл због софтвера за прављење филмова заснованог на вештачкој интелигенцији ↗
Аутодеск тужи Гугл због имена „Flow“, тврдећи да је већ користио „Flow“ за софтвер за продукцију и управљање визуелним ефектима - и да је Гуглов алат за прављење филмова помоћу вештачке интелигенције стигао са истим брендирањем.
Оштрије детаље чини тврдња да је Гугл раније наговестио да неће комерцијализовати име... а онда је ипак наставио са поступком по питању заштитних знакова. То је свакако борба око заштитних знакова, али она такође носи и енергију малог обима „велика платформа против специјализованог произвођача алата“.
🏥 Студија показује да вештачка интелигенција није боља од других метода за пацијенте који траже медицински савет ↗
Нова студија је открила да коришћење вештачке интелигенције за медицинске савете пацијената није надмашило друге приступе - што није изненађујуће и благо охрабрујуће, у зависности од тога колико сте се трудили да пратите симптоме.
То не значи да је вештачка интелигенција бескорисна у здравству - само што „питајте бота“ није аутоматски надоградња у односу на постојеће опције, посебно када су тачност и безбедност поента.
🩺 Апликације и ботови засновани на вештачкој интелигенцији упадају у медицину. Лекари имају питања. ↗
Истрага истражује како се апликације за здравље засноване на вештачкој интелигенцији и четботови шире у клиничке просторе - понекад брже него што смернице, надзор или обични докази могу да прате.
Лекари изражавају забринутост због поузданости, штете по пацијенте и ко је одговоран када бот даје савете који звуче самоуверено, али погрешно... попут сателитске навигације која инсистира да се возите у језеро, осим уз лекове.
📈 Генерални директор OpenAI-а каже да се ChatGPT вратио на преко 10% месечног раста, извештава CNBC ↗
Генерални директор компаније OpenAI је наводно рекао да се ChatGPT вратио на месечни раст од преко 10% - што је велика ствар ако претпоставимо да је фаза „сви су већ пробали“ достигла врхунац.
То сугерише да или нови корисници и даље пристижу, или постојећи корисници проналазе више разлога да остану - или и једно и друго. У сваком случају, производ се понаша мање као пролазни тренд, а више као инфраструктура... или се бар тако чини.
Честа питања
Шта је предложени „компакт“ о центрима података вештачке интелигенције који САД промовишу?
Описано је као скуп обавеза које би велике фирме пристале приликом изградње или управљања великим центрима података вештачке интелигенције. Намера је да се стандардизују очекивања како ови масивни рачунарски пројекти не би постали расути или недоследни међу компанијама. Иако специфичности и даље звуче нејасно, нагласак изгледа да је на практичној територији: потрошња енергије, безбедност и могуће неки облик извештавања.
Зашто би САД желеле да компаније потпишу споразум о центрима података са вештачком интелигенцијом?
Споразум може да успостави заједничка основна очекивања без присиљавања законодаваца да састављају ново правило за сваки гранични случај. Са брзим ширењем центри података вештачке интелигенције, креатори политике често брину о утицају на мрежу, безбедносним ризицима и оперативној транспарентности. Уобичајена стратегија је рано усклађивање највећих играча, како би се добре праксе брже шириле, а одговорност лакше пратила ако се појаве проблеми.
Које врсте обавеза би могле бити укључене у споразум о центру података са вештачком интелигенцијом?
На основу онога што је предложено, обавезе би могле да обухвате планирање енергије (како се енергија набавља и управља њоме), безбедносне мере (физичке и сајбер) и неки облик извештавања или објављивања информација. У многим процесима, извештавање постаје „слој спровођења који чини стандарде читљивим и мерљивим“. Ако је споразум добровољан, те обавезе могу бити формулисане као смернице које касније помажу у обликовању регулативе.
Шта је тужба у вези са Гугловим алатом за прављење филмова помоћу вештачке интелигенције под називом „Flow“?
Аутодеск тужи Гугл због имена „Flow“, тврдећи да је Аутодеск већ користио „Flow“ за софтвер за продукцију и управљање визуелним ефектима. Спор је окарактерисан као сукоб заштитног знака и брендирања, уз тврдњу да је Гугл раније наговестио да неће комерцијализовати име, али је касније ипак покушао да заштити заштитне знакове. Ови случајеви се често односе на приоритет бренда и вероватноћу забуне.
Шта значи да вештачка интелигенција није била боља од других метода за медицинске савете пацијената?
То сугерише да „питајте бота“ није аутоматски тачније или безбедније од постојећих начина на које пацијенти траже савет. То може деловати охрабрујуће ако сте забринути због претерано самоуверених одговора проверавача симптома или четботова. То не искључује потенцијалну вредност вештачке интелигенције у здравству, али наглашава потребу за доказима, надзором и пажљивом интеграцијом тамо где грешке могу проузроковати штету.
Зашто су лекари забринути због здравствених апликација и четбота заснованих на вештачкој интелигенцији?
Лекари брину о поузданости, штети по пацијенте и ко је одговоран када алат пружа поуздане, али погрешне савете. Забринутост није само у тачности; већ и у томе како пацијенти тумаче резултате и да ли систем подстиче људе ка небезбедном самоуправљању. У клиничким условима, нејасна одговорност може постати велики ризик: пацијенти могу веровати алату, лекари га можда не контролишу, а смернице могу заостајати за усвајањем.