🦞 Оснивач OpenClaw-а, Штајнбергер, придружио се OpenAI-у, бот отвореног кода постаје фондација ↗
Питер Штајнбергер се креће ка OpenAI-у како би промовисао „личне агенте“, док се сам OpenClaw паркира у фондацији тако да остаје отвореног кода (и подржан). Та подела је... помало паметна - ангажовати креатора, пројекат остати јаван.
OpenClaw-ова презентација је освежавајуће практична: тријажа имејлова, папирологија осигурања, пријаве на лет, досадни задаци животне администрације. Такође је преплављен на GitHub-у, а та популарност је изазвала безбедносне проблеме, посебно ако га људи користе непажљиво.
🪖 Пентагон је „сит“ одбијања компаније Anthropic због употребе модела вештачке интелигенције Клода од стране војске, могао би да прекине везе, наводи се у извештају ↗
Суштина спора: Пентагон жели широк приступ „за све законите сврхе“, а Антропик и даље покушава да задржи строга ограничења око потпуно аутономног оружја и масовног надзора. То је врста неслагања која звучи филозофски док неко не каже: „Можда ћемо вас заменити“
Једна потцењена мана - званичници не желе да модел изненада блокира радне процесе усред процеса, и не желе да заувек преговарају о граничним случајевима (фер... али и јао). Овде постоји права тензија „ко држи кључеве“, и она није суптилна.
🧠 Модел изградње стартапа за предвиђање људског понашања ↗
Симил је привукао рунду од 100 милиона долара како би изградио модел „ограниченог учења“ са циљем предвиђања шта би људи могли да ураде - укључујући, врло конкретно, предвиђање вероватних питања у стварима попут објава о заради. Уска циљна група, велика амбиција, помало језива комбинација.
Приступ се ослања на интервјуе са стварним људима плус податке из истраживања понашања, а затим покреће симулације са вештачком интелигенцијом које треба да одражавају стварне преференције. То је као прављење временског модела за људске одлуке... што звучи немогуће све док не постане.
🧑⚖️ Саопштење: Бела кућа врши притисак на посланика из Јуте да одбаци закон о транспарентности вештачке интелигенције ↗
Покрет за транспарентност вештачке интелигенције на нивоу државе Јута наилази на директне критике Беле куће, где званичници позивају спонзора закона да га не покреће. Предлог закона се у потпуности фокусира на транспарентност и безбедност деце - тешко је оспорити то само на основу општег мишљења.
Али већа борба је јурисдикцијска: ко поставља правила, државе или савезна влада. И да, то је препирка - као да двоје људи зграби исти волан и инсистира да су они смирени.
🎬 Бајтденс обећава да ће спречити неовлашћену употребу ИП адресе на AI видео алату након претње Дизнија ↗
Дизни је упутио забрану рада на Бајтденсовом генератору видео снимака са вештачком интелигенцијом, а Бајтденс каже да појачава мере заштите како би спречио неовлашћену употребу интелектуалне својине и сличности. Жалба - наводно - је да алат може да приказује познате ликове из франшизе као да су само... налепнице из јавног власништва.
То је судар који су сви предвидели: вирални вештачки алати за видео снимке се брзо развијају, студији се баве судским поступцима, а „додаћемо заштитне мере“ постаје подразумевани језик извињења. У једном обрту, технологија изгледа као магија - а правна страна изгледа као гравитација.
Честа питања
Шта значи да се оснивач OpenClaw-а придружио OpenAI-у, док се OpenClaw преселио у фондацију?
То сигнализира поделу између особе која гради „личне агенте“ и пројекта који остаје јавно управљан. Штајнбергерово придруживање OpenAI-у сугерише да ће се тамо концентрисати на унапређење производа у стилу агента. Смештање OpenClaw-а у фондацију има за циљ да га одржи отвореним кодом и одрживо подржаним. У пракси, циљ овог потеза је очување поверења заједнице док градитељ иде тамо где су ресурси.
Зашто су АИ агенти у стилу OpenClaw-а фокусирани на послове попут имејла и папирологије?
Пошто је „административни“ посао понављајући, заснован на правилима и одузима много времена, он је практична мета за аутоматизацију. Примери овде - тријажа имејлова, папирологија осигурања и пријаве на летове - су уски задаци са јасним критеријумима успеха. Тај фокус може учинити да се агенти осећају вредним пре него асистенти са отворенијим манама. Такође наглашава зашто је пажљива контрола приступа важна када агенти додирују личне налоге.
Како можете да примените AI агент отвореног кода као што је OpenClaw без стварања безбедносних проблема?
Третирајте га као софтвер који може да види осетљиве податке, а не као играчку скрипту. Уобичајени приступ је закључавање акредитива, ограничавање дозвола на потребни минимум и чување логова и ревизијских трагова. Покрените га у ограниченом окружењу и одвојите га од система високе вредности. Многе безбедносне бриге произилазе из непажљивог распоређивања, посебно када људи откривају крајње тачке или токене без јаких заштитних мера.
Зашто је Пентагон незадовољан Антропиковим ограничењима за војну употребу Клода?
Спор се усредсређује на обим и контролу: Пентагон жели широк приступ „свим законитим сврхама“, док се за Антропик каже да задржава строга ограничења око потпуно аутономног оружја и масовног надзора. Званичници такође не желе да модели блокирају радне процесе усред процеса или да захтевају бескрајне преговоре о граничним случајевима. Та тензија је мање апстрактна него што звучи - ради се о томе ко одлучује шта модел може да уради у стварним операцијама.
Како стартапови покушавају да предвиде људско понашање помоћу вештачке интелигенције и зашто се то чини контроверзним?
Пример овде, Симил, тежи моделу „ограниченог учења“ усмереном на предвиђање шта би људи могли да ураде, укључујући предвиђање вероватних питања у контекстима као што су позиви о заради. Описани приступ комбинује интервјуе са подацима истраживања понашања и симулацијама користећи вештачку интелигенцију (AI) који су намењени да одражавају стварне преференције. Делује језиво јер помера вештачку интелигенцију са реаговања на људе на њихово предвиђање. Изазов је да тврдње буду ограничене и да се избегне претерано самопоуздање.
Шта се дешава када алати за видео са вештачком интелигенцијом генеришу ликове заштићене ауторским правима, као у сукобу Бајтденса и Дизнија?
Пријављени образац је познат: студио издаје забрану, а платформа реагује јачањем заштитних мера како би се спречила неовлашћена употреба интелектуалне својине или сличности. У многим алатима, заштитне мере значе строже филтере садржаја, побољшано откривање препознатљивих ликова и јасније спровођење корисничких политика. Основни сукоб је брзина наспрам одговорности - генерисање вируса се брзо креће, а спровођење права делује попут гравитације. Очекујте још оваквих судара како се видео генератори буду ширили.