Шта су основни модели у генеративној вештачкој интелигенцији?

Шта су основни модели у генеративној вештачкој интелигенцији?

Кратак одговор: Основни модели су велики, општенаменски модели вештачке интелигенције обучени на огромним, широким скуповима података, а затим прилагођени многим пословима (писање, претраживање, кодирање, слике) путем подстицања, финог подешавања, алата или претраживања. Ако су вам потребни поуздани одговори, упарите их са уземљењем (као што је RAG), јасним ограничењима и проверама, уместо да им дозволите да импровизују.

Кључне закључке:

Дефиниција : Један широко обучен основни модел поново коришћен у многим задацима, а не један задатак по моделу.

Адаптација : Користите подстицање, фино подешавање, LoRA/адаптере, RAG и алате за усмеравање понашања.

Генеративно уклапање : Они покрећу генерисање текста, слика, звука, кода и мултимодалног садржаја.

Сигнали квалитета : Дајте приоритет контроли, мањем броју халуцинација, мултимодалној способности и ефикасном закључивању.

Контроле ризика : Планирајте за халуцинације, пристрасност, цурење приватности и брзо убризгавање кроз управљање и тестирање.

Шта су основни модели у генеративној вештачкој интелигенцији? Инфографика

Чланци које бисте можда желели да прочитате након овог:

🔗 Шта је компанија за вештачку интелигенцију
Разумети како фирме за вештачку интелигенцију граде производе, тимове и моделе прихода.

🔗 Како изгледа вештачка интелигенција (AI) код
Погледајте примере вештачке интелигенције (AI) кода, од Пајтон модела до API-ја.

🔗 Шта је вештачка интелигенција (AI) алгоритам
Сазнајте шта су вештачка интелигенција (AI) алгоритми и како доносе одлуке.

🔗 Шта је АИ технологија
Истражите основне вештачке интелигенције које покрећу аутоматизацију, аналитику и интелигентне апликације.


1) Модели темеља - дефиниција без магле 🧠

Основни модел је велики, општи модел вештачке интелигенције обучен на широком спектру података (обично на тонама података), тако да се може прилагодити многим задацима, а не само једном ( NIST , Stanford CRFM ).

Уместо изградње посебног модела за:

  • писање имејлова

  • одговарање на питања

  • сумирање PDF-ова

  • генерисање слика

  • класификација захтева за подршку

  • превођење језика

  • давање предлога за код

...тренирате један велики базни модел који „учи свет“ на нејасан статистички начин, а затим прилагођавате одређеним задацима помоћу подстицаја, финог подешавања или додатних алата ( Bommasani et al., 2021 ).

Другим речима: то је општи мотор којим можете управљати.

И да, кључна реч је „опште“. То је цела поента.


2) Шта су основни модели у генеративној вештачкој интелигенцији? (Како се конкретно уклапају) 🎨📝

Дакле, шта су основни модели у генеративној вештачкој интелигенцији? То су основни модели који покрећу системе који могу да генеришу нови садржај - текст, слике, аудио, код, видео и све више... мешавине свега тога ( NIST , NIST Generative AI Profile ).

Генеративна вештачка интелигенција не бави се само предвиђањем ознака попут „спам / није спам“. Ради се о стварању резултата који изгледају као да их је направила особа.

  • пасуси

  • песме

  • описи производа

  • илустрације

  • мелодије

  • прототипови апликација

  • синтетички гласови

  • а понекад и невероватно самоуверене глупости 🙃

Модели темеља су посебно добри јер:

  • апсорбовали су широке обрасце из огромних скупова података ( Bommasani et al., 2021 )

  • могу да генерализују на нове подстицаје (чак и оне необичне) ( Brown et al., 2020 )

  • могу се пренаменити за десетине резултата без поновне обуке од нуле ( Bommasani et al., 2021 )

Они су „основни слој“ - као тесто за хлеб. Можете их испећи у багет, пицу или ролнице са циметом... није савршена метафора, али разумете ме 😄


3) Зашто су све променили (и зашто људи не престају да причају о њима) 🚀

Пре основних модела, велики део вештачке интелигенције био је специфичан за задатке:

  • обучити модел за анализу расположења

  • обучи другог за превод

  • обучи другог за класификацију слика

  • обучи другог за препознавање именованих ентитета

То је функционисало, али је било споро, скупо и помало... крхко.

Модели фондације су то преокренули:

  • једном преттренирати (велики напор)

  • поново користити свуда (велика исплата) ( Боммасани ет ал., 2021 )

Та поновна употреба је мултипликатор. Компаније могу да изграде 20 функција на врху једне породице модела, уместо да 20 пута изнова измишљају точак.

Такође, корисничко искуство је постало природније:

  • не „користите класификатор“

  • Разговараш са моделом као да је услужна колегиница која никад не спава ☕🤝

Понекад је то и као колега који самоуверено погрешно разуме све, али хеј. Раст.


4) Основна идеја: претходна обука + адаптација 🧩

Скоро сви модели фондација прате образац ( Станфорд CRFM , NIST ):

Претходна обука (фаза „упијања интернета“) 📚

Модел је трениран на масивним, широким скуповима података коришћењем самонадгледаног учења ( NIST ). За језичке моделе, то обично значи предвиђање недостајућих речи или следећег токена ( Devlin et al., 2018 , Brown et al., 2020 ).

Поента није да га научите једном задатку. Поента је да га научите општим репрезентацијама :

  • граматика

  • чињенице (врста)

  • обрасци резоновања (понекад)

  • стилови писања

  • структура кода

  • уобичајена људска намера

Адаптација (фаза „примени на праксу“) 🛠️

Затим га прилагођавате користећи једно или више од:

  • подстицање (упутства једноставним језиком)

  • подешавање инструкција (обука за праћење инструкција) ( Wei et al., 2021 )

  • фино подешавање (обука на подацима вашег домена)

  • LoRA / адаптери (лаке методе подешавања) ( Hu et al., 2021 )

  • RAG (генерисање проширено претраживањем - модел консултује вашу документацију) ( Lewis et al., 2020 )

  • коришћење алата (позивање функција, прегледање интерних система итд.)

Зато исти основни модел може да напише романтичну сцену… а затим да помогне у дебаговању SQL упита пет секунди касније 😭


5) Шта чини добру верзију модела темеља? ✅

Ово је део који људи прескачу, а касније се кају.

„Добар“ модел темеља није само „већи“. Већи помаже, свакако… али није једина ствар. Добра верзија модела темеља обично има:

Јака генерализација 🧠

Добро се показује у многим задацима без потребе за преобуком за специфичне задатке ( Bommasani et al., 2021 ).

Управљање и контрола 🎛️

Може поуздано да прати упутства као што су:

  • „Будите концизни“

  • „користите тачке са набрајањем“

  • „Пишите пријатељским тоном“

  • „Не откривајте поверљиве информације“

Неки модели су паметни, али клизави. Као покушај да држите комад сапуна под тушем. Корисно, али нестабилно 😅

Мала склоност ка халуцинацијама (или барем искрена несигурност) 🧯

Ниједан модел није имун на халуцинације, али добри:

  • мање халуцинирати

  • чешће признајте несигурност

  • останите ближи датом контексту када користите претраживање ( Ji et al., 2023 , Lewis et al., 2020 )

Добра мултимодална способност (када је потребно) 🖼️🎧

Ако правите асистенте који читају слике, тумаче графиконе или разумеју звук, мултимодалност је веома важна ( Radford et al., 2021 ).

Ефикасно закључивање ⚡

Латенција и трошкови су важни. Модел који је јак, али спор је као спортски аутомобил са празном гумом.

Безбедност и поравнање 🧩

Не само „одбијте све“, већ:

  • избегавајте штетна упутства

  • смањити пристрасност

  • пажљиво поступајте са осетљивим темама

  • одупрети се основним покушајима џејлбрејка (донекле…) ( NIST AI RMF 1.0 , NIST Generative AI Profile )

Документација + екосистем 🌱

Ово звучи сувопарно, али је истинито:

  • алати

  • евалуациони појасеви

  • опције распоређивања

  • контроле предузећа

  • подршка за фино подешавање

Да, „екосистем“ је нејасна реч. И ја је мрзим. Али је важна.


6) Табела поређења - уобичајене опције модела темеља (и за шта су добре) 🧾

Испод је практична, помало несавршена табела за поређење. То није „једина права листа“, већ је више као: шта људи бирају у природи.

тип алата / модела публика скупоцено зашто то функционише
Власнички мастер права (у стилу ћаскања) тимови који желе брзину и углађеност на основу коришћења / претплата Одлично праћење инструкција, јаке опште перформансе, обично најбоље „одмах по распакивању“ 😌
LLM отворене тежине (самостални хостинг) градитељи који желе контролу трошкови инфраструктуре (и главобоље) Прилагодљиво, прилагођено приватности, може се покретати локално… ако волите да се петљате у поноћ
Генератор дифузионих слика креативци, дизајнерски тимови од бесплатног до плаћеног Одлична синтеза слика, стилска разноликост, итеративни токови рада (такође: прсти могу бити искључени) ✋😬 ( Ho et al., 2020 , Rombach et al., 2021 )
Мултимодални модел „визија-језик“ апликације које читају слике + текст засновано на коришћењу Омогућава вам да постављате питања о сликама, снимцима екрана, дијаграмима - изненађујуће практично ( Radford et al., 2021 )
Модел уградње темеља претрага + RAG системи ниска цена по позиву Претвара текст у векторе за семантичку претрагу, груписање, препоруке - тиха MVP енергија ( Карпукин и др., 2020 , Дуз и др., 2024 )
Основни модел претварања говора у текст кол центри, креатори засновано на коришћењу / локално Брза транскрипција, вишејезична подршка, довољно добро за бучан звук (обично) 🎙️ ( Шапат )
Основа модела претварања текста у говор тимови за производе, медији засновано на коришћењу Генерисање природног гласа, стилови гласа, нарација - може постати језиво-реално ( Shen et al., 2017 )
Мастер права фокусиран на код програмери на основу коришћења / претплата Бољи у обрасцима кода, дебаговању, рефакторисању... ипак ипак не чита мисли 😅

Обратите пажњу како „темплијски модел“ не значи само „четбот“. Уграђивања и говорни модели такође могу бити основни, јер су широки и могу се поново користити у различитим задацима ( Bommasani et al., 2021 , NIST ).


7) Пажљивији поглед: како модели језичких основа уче (вибе верзија) 🧠🧃

Модели језичких основа (често називани LLM) се обично тренирају на огромним колекцијама текста. Они уче предвиђањем токена ( Brown et al., 2020 ). То је то. Нема тајне вилинске прашине.

Али магија је у томе што предвиђање токена приморава модел да учи структуру ( CSET ):

  • граматика и синтакса

  • односи тема

  • обрасци слични резоновању (понекад)

  • уобичајени низови мисли

  • како људи објашњавају ствари, свађају се, извињавају се, преговарају, подучавају

То је као да учиш да имитираш милионе разговора, а да притом не „разумеш“ начин на који то људи раде. Звучи као да не би требало да функционише... а ипак и даље функционише.

Једно благо претеривање: то је у основи као сабијање људског писања у џиновски вероватносни мозак.
С друге стране, та метафора је мало проклета. Али ми се крећемо 😄


8) Пажљивији поглед: модели дифузије (зашто слике функционишу другачије) 🎨🌀

Модели за осмишљавање слика често користе методе дифузије Ho et al., 2020 , Rombach et al., 2021 ).

Груба идеја:

  1. додајте шум сликама док не постану у основи статичне на ТВ-у

  2. тренирајте модел да корак по корак преокрене ту буку

  3. у време генерисања, почните са шумом и „уклањајте шум“ у слику вођену упутом ( Ho et al., 2020 )

Зато се генерисање слика осећа као „развијање“ фотографије, осим што је фотографија змај који носи патике у пролазу супермаркета 🛒🐉

Дифузиони модели су добри јер:

  • они генеришу висококвалитетне визуелне приказе

  • могу се снажно водити текстом

  • подржавају итеративно усавршавање (варијације, префарбавање, скалирање) ( Rombach et al., 2021 )

Такође се понекад боре са:

  • приказивање текста унутар слика

  • фине анатомске детаље

  • доследан идентитет ликова кроз све сцене (побољшава се, али ипак)


9) Пажљивији поглед: мултимодални модели темеља (текст + слике + аудио) 👀🎧📝

Мултимодални темељни модели имају за циљ да разумеју и генеришу податке на основу више типова података:

  • текст

  • слике

  • аудио

  • видео

  • понекад улази слични сензорима ( NIST Generative AI Profile )

Зашто је ово важно у стварном животу:

  • Корисничка подршка може да тумачи снимке екрана

  • алати за приступачност могу да опишу слике

  • Образовне апликације могу објаснити дијаграме

  • креатори могу брзо да ремиксују формате

  • пословни алати могу да „прочитају“ снимак екрана контролне табле и да га сумирају

Испод хаубе, мултимодални системи често поравнавају репрезентације:

  • претворити слику у уграђене елементе

  • претворити текст у уграђене елементе

  • научите заједнички простор где се „мачка“ поклапа са пикселима мачака 😺 ( Radford et al., 2021 )

Није увек елегантно. Понекад је сашивено као јорган. Али функционише.


10) Фино подешавање наспрам подстицања наспрам RAG-а (како прилагођавате основни модел) 🧰

Ако покушавате да основни модел учините практичним за одређену област (правну, медицинску, корисничку подршку, интерно знање), имате неколико полуга:

Подстицање 🗣️

Најбржи и најједноставнији.

  • предности: нула обуке, тренутна итерација

  • недостаци: може бити недоследно, ограничава контекст, изазива крхкост

Фино подешавање 🎯

Даље тренирајте модел на својим примерима.

  • предности: доследније понашање, бољи језик домена, може смањити дужину упита

  • недостаци: трошкови, захтеви за квалитет података, ризик од прекомерног опремања, одржавање

Лагано подешавање (LoRA / адаптери) 🧩

Ефикаснија верзија финог подешавања ( Hu et al., 2021 ).

  • предности: јефтинији, модуларни, лакши за замену

  • недостаци: и даље је потребан процес обуке и евалуација

RAG (генерација проширена претраживањем) 🔎

Модел преузима релевантне документе из ваше базе знања и одговара користећи их ( Lewis et al., 2020 ).

  • предности: ажурно знање, интерни цитати (ако их имплементирате), мање преквалификација

  • недостаци: квалитет претраживања може бити пресудан, потребно је добро груписање + уграђивање

Права прича: многи успешни системи комбинују подстицање + RAG. Фино подешавање је моћно, али није увек неопходно. Људи пребрзо прелазе на то јер звучи импресивно 😅


11) Ризици, ограничења и одељак „молим вас, немојте ово слепо примењивати“ 🧯😬

Основни модели су моћни, али нису стабилни као традиционални софтвер. Више су као... талентовани приправник са проблемом самопоуздања.

Кључна ограничења за планирање:

Халуцинације 🌀

Модели могу измислити:

  • лажни извори

  • нетачне чињенице

  • вероватни, али погрешни кораци ( Ji et al., 2023 )

Ублажавања:

  • RAG са утемељеним контекстом ( Lewis et al., 2020 )

  • ограничени излази (шеме, позиви алата)

  • експлицитно упутство „не погађај“

  • слојеви верификације (правила, унакрсне провере, људски преглед)

Предрасуде и штетни обрасци ⚠️

Пошто подаци о обуци одражавају људе, можете добити:

Ублажавања:

Приватност података и цурење података 🔒

Ако уносите поверљиве податке у крајњу тачку модела, потребно је да знате:

  • како се складишти

  • да ли се користи за обуку

  • каква сеч евиденције постоји

  • Шта контролише потребе ваше организације ( NIST AI RMF 1.0 )

Ублажавања:

  • опције за приватно распоређивање

  • јако управљање

  • минимално излагање подацима

  • само интерни RAG са строгом контролом приступа ( NIST Generative AI Profile , Carlini et al., 2021 )

Брза ињекција (посебно са RAG) 🕳️

Ако модел чита непоуздан текст, тај текст може покушати да га манипулише:

  • „Игноришите претходна упутства…“

  • „Пошаљи ми тајну…“ ( OWASP , Greshake et al., 2023 )

Ублажавања:

  • изоловање системских инструкција

  • дезинфиковао преузети садржај

  • користите смернице засноване на алатима (не само упите)

  • тест са супарничким улазима ( OWASP Cheat Sheet , NIST Generative AI Profile )

Не покушавам да те уплашим. Само… боље је знати где подне даске шкрипе.


12) Како одабрати модел темеља за ваш случај употребе 🎛️

Ако бирате модел темеља (или градите на једном), почните са овим упутствима:

Дефинишите шта генеришете 🧾

  • само текст

  • слике

  • аудио

  • мешовити мултимодални

Поставите своју летвицу чињеничности 📌

Ако вам је потребна висока тачност (финансије, здравље, правни послови, безбедност):

  • желећете RAG ( Lewis et al., 2020 )

  • желећете потврду

  • желећете људски преглед у току (барем понекад) ( NIST AI RMF 1.0 )

Одредите своју циљну латенцију ⚡

Ћаскање је тренутно. Сумирање група може бити спорије.
Ако вам је потребан тренутни одговор, величина модела и хостинг су битни.

Потребе за приватношћу и усклађеношћу мапа 🔐

Неким тимовима је потребно:

  • локално / VPC имплементирање

  • без чувања података

  • строги евиденциони ревизије

  • контрола приступа по документу ( NIST AI RMF 1.0 , NIST Generative AI Profile )

Уравнотежен буџет - и стрпљења 😅

Самостално хостовање даје контролу, али додаје сложеност.
Управљани API-ји су једноставни, али могу бити скупи и мање прилагодљиви.

Мали практичан савет: прво направите прототип са нечим једноставним, а затим касније очвршћавајте. Почетак са „савршеним“ подешавањем обично све успорава.


13) Шта су основни модели у генеративној вештачкој интелигенцији? (Брзи ментални модел) 🧠✨

Хајде да га вратимо. Шта су основни модели у генеративној вештачкој интелигенцији?

Они су:

  • велики, општи модели обучени на широким подацима ( NIST , Stanford CRFM )

  • способан за генерисање садржаја (текст, слике, аудио итд.) ( NIST Generative AI Profile )

  • прилагодљиво многим задацима путем упутстава, финог подешавања и претраживања ( Bommasani et al., 2021 )

  • основни слој који покреће већину модерних генеративних вештачких интелигенцијских производа

Они нису једна јединствена архитектура или бренд. Они су категорија модела који се понашају као платформа.

Модел са темељним подешавањем је мање као калкулатор, а више као кухиња. У њему можете кувати много оброка. Такође можете загорети тост ако не обраћате пажњу... али кухиња је и даље прилично практична 🍳🔥


14) Резиме и за понети ✅🙂

Основни модели су мотори генеративне вештачке интелигенције који се могу поново користити. Они се тренирају широко, а затим се прилагођавају специфичним задацима кроз подстицање, фино подешавање и претраживање ( NIST , Stanford CRFM ). Могу бити невероватни, неуредни, моћни, а понекад и смешни - све одједном.

Резиме:

Ако градите било шта помоћу генеративне вештачке интелигенције, разумевање модела темеља није опционо. То је цео спрат на коме зграда стоји... и да, понекад се под мало клима 😅

Честа питања

Модели темеља, једноставно речено

Основни модел је велики, општи модел вештачке интелигенције обучен на широким подацима тако да се може поново користити за многе задатке. Уместо да правите један модел по задатку, почињете са јаким „основним“ моделом и прилагођавате га по потреби. Та адаптација се често дешава кроз подстицање, фино подешавање, претраживање (RAG) или алате. Централна идеја је ширина плус управљивост.

Како се основни модели разликују од традиционалних модела вештачке интелигенције специфичних за задатке

Традиционална вештачка интелигенција често тренира посебан модел за сваки задатак, попут анализе расположења или превода. Основни модели обрћу тај образац: једном се претходно тренирају, а затим поново користе у многим функцијама и производима. Ово може смањити дуплирање напора и убрзати испоруку нових могућности. Компромис је у томе што могу бити мање предвидљиви од класичног софтвера, осим ако не додате ограничења и тестирање.

Основни модели у генеративној вештачкој интелигенцији

У генеративној вештачкој интелигенцији, основни модели су основни системи који могу да произведу нови садржај попут текста, слика, звука, кода или мултимодалних излаза. Они нису ограничени на означавање или класификацију; генеришу одговоре који подсећају на рад који су створили људи. Пошто уче широке обрасце током претходне обуке, могу да обраде многе типове и формате упита. Они су „основни слој“ иза већине модерних генеративних искустава.

Како модели темеља уче током претходне обуке

Већина модела језичких основа учи предвиђањем токена, као што су следећа реч или речи које недостају у тексту. Тај једноставан циљ их подстиче да интернализују структуру попут граматике, стила и уобичајених образаца објашњења. Такође могу да апсорбују велику количину светског знања, мада не увек поуздано. Резултат је јака општа репрезентација коју касније можете усмерити ка конкретном раду.

Разлика између подстицања, финог подешавања, LoRA и RAG

Подстицање је најбржи начин за управљање понашањем помоћу инструкција, али може бити крхко. Фино подешавање додатно тренира модел на вашим примерима за доследније понашање, али додаје трошкове и одржавање. LoRA/адаптери су лакши приступ фином подешавању који је често јефтинији и модуларнији. RAG преузима релевантне документе и има одговор модела користећи тај контекст, што помаже са свежином и утемељењем.

Када користити RAG уместо финог подешавања

RAG је често добар избор када су вам потребни одговори засновани на вашим тренутним документима или интерној бази знања. Може смањити „нагађање“ тако што ће моделу пружити релевантан контекст у време генерисања. Фино подешавање је боље решење када вам је потребан доследан стил, фразирање домена или понашање које подстицање не може поуздано да произведе. Многи практични системи комбинују подстицање + RAG пре него што посегну за финим подешавањем.

Како смањити халуцинације и добити поузданије одговоре

Уобичајени приступ је утемељење модела помоћу претраживања (RAG) како би остао близак датом контексту. Такође можете ограничити излазе помоћу шема, захтевати позиве алата за кључне кораке и додати експлицитна упутства „не погађај“. Слојеви верификације су такође важни, као што су провере правила, унакрсне провере и људски преглед за случајеве употребе са већим улогом. Третирајте модел као вероватносног помагача, а не као извор истине по подразумеваним подешавањима.

Највећи ризици код модела темеља у производњи

Уобичајени ризици укључују халуцинације, пристрасне или штетне обрасце из података за обуку и цурење приватности ако се са осетљивим подацима лоше рукује. Системи такође могу бити рањиви на убризгавање подстицаја, посебно када модел чита непоуздан текст из докумената или веб садржаја. Мере ублажавања обично укључују управљање, црвено-тејминг, контроле приступа, безбедније обрасце подстицаја и структурирану евалуацију. Планирајте ове ризике рано, уместо да их касније закрпите.

Брзо убризгавање и зашто је важно у RAG системима

Убризгавање промпта је када непоуздан текст покушава да поништи инструкције, као што су „игнориши претходна упутства“ или „откриј тајне“. У RAG-у, преузети документи могу да садрже те злонамерне инструкције, а модел их може пратити ако нисте пажљиви. Уобичајени приступ је изоловање системских инструкција, дезинфекција преузетог садржаја и ослањање на политике засноване на алатима, а не само на промпте. Тестирање са супарничким улазима помаже у откривању слабих тачака.

Како одабрати модел темеља за ваш случај употребе

Почните тако што ћете дефинисати шта треба да генеришете: текст, слике, аудио, код или мултимодалне излазе. Затим поставите свој стандард чињеничности – доменима високе тачности често је потребно утемељење (RAG), валидација, а понекад и људски преглед. Узмите у обзир латенцију и трошкове, јер јак модел који је спор или скуп може бити тешко испоручити. Коначно, мапирајте приватност и усклађеност са опцијама и контролама имплементације.

Референце

  1. Национални институт за стандарде и технологију (NIST) - Основа модела (Речник појмова) - csrc.nist.gov

  2. Национални институт за стандарде и технологију (NIST) - NIST AI 600-1: Генеративни профил вештачке интелигенције - nvlpubs.nist.gov

  3. Национални институт за стандарде и технологију (NIST) - NIST AI 100-1: Оквир за управљање ризицима вештачке интелигенције (AI RMF 1.0) - nvlpubs.nist.gov

  4. Станфордски центар за истраживање модела фондација (CRFM) - Извештај - crfm.stanford.edu

  5. арКсивО могућностима и ризицима модела фондација (Боммасани ет ал., 2021)аркив.орг

  6. arXiv - Језички модели су ученици са малобројним шансама (Brown et al., 2020) - arxiv.org

  7. arXiv - Генерисање проширених података за задатке НЛП-а који захтевају интензивно знање (Lewis et al., 2020) - arxiv.org

  8. arXiv - LoRA: Адаптација модела великих језика ниског ранга (Hu et al., 2021) - arxiv.org

  9. arXiv - BERT: Претходна обука дубоких двосмерних трансформатора за разумевање језика (Devlin et al., 2018) - arxiv.org

  10. arXiv - Фино подешени језички модели су ученици са нултим шансама (Wei et al., 2021) - arxiv.org

  11. Дигитална библиотека ACM-а - Истраживање о халуцинацијама у генерисању природног језика (Ji et al., 2023) - dl.acm.org

  12. arXiv - Учење преносивих визуелних модела из надзора природног језика (Radford et al., 2021) - arxiv.org

  13. arXiv - Модели вероватноће дифузије са ублажавањем шума (Ho et al., 2020) - arxiv.org

  14. arXiv - Синтеза слика високе резолуције са моделима латентне дифузије (Rombach et al., 2021) - arxiv.org

  15. arXiv - Претраживање густих пролаза за одговарање на питања отвореног домена (Карпукин и др., 2020) - arxiv.org

  16. арКсив - Фаиссова библиотека (Доузе ет ал., 2024) - аркив.орг

  17. OpenAI - Представљамо Whisper - openai.com

  18. arXiv - Синтеза природних TTS-ова условљавањем WaveNet-а на предвиђањима Mel спектрограма (Shen et al., 2017) - arxiv.org

  19. Центар за безбедност и нове технологије (CSET), Универзитет Џорџтаун - Изненађујућа моћ предвиђања следеће речи: објашњење великих језичких модела (1. део) - cset.georgetown.edu

  20. USENIX - Издвајање података за обуку из великих језичких модела (Carlini et al., 2021) - usenix.org

  21. OWASP - LLM01: Брза инјекција - genai.owasp.org

  22. arXiv - Више него што сте тражили: Свеобухватна анализа претњи нових брзих убризгавања за велике језичке моделе интегрисане у апликације (Greshake et al., 2023) - arxiv.org

  23. OWASP серија варалица - LLM варилица за спречавање брзог убризгавања - cheatsheetseries.owasp.org

Пронађите најновију вештачку интелигенцију у званичној продавници вештачке интелигенције

О нама

Назад на блог