Кратак одговор: Програмери који користе генеративну вештачку интелигенцију одговорни су за цео систем, а не само за резултат модела. Када вештачка интелигенција утиче на одлуке, код, приватност или поверење корисника, морају да бирају безбедне апликације, верификују резултате, заштите податке, смање штету и обезбеде да људи могу да прегледају, пониште и исправе грешке.
Кључне закључке:
Верификација : Третирајте углачане резултате као непоуздане док их извори, тестови или људски преглед не потврде.
Заштита података : Минимизирајте број података упита, уклоните идентификаторе и обезбедите логове, контроле приступа и добављаче.
Праведност : Тестирајте у различитим демографским групама и контекстима како бисте уочили стереотипе и неуједначене обрасце неуспеха.
Транспарентност : Јасно означите употребу вештачке интелигенције, објасните њена ограничења и понудите људски преглед или жалбу.
Одговорност : Доделите јасне власнике за имплементацију, инциденте, праћење и враћање претходних ...

Чланци које бисте можда желели да прочитате након овог:
🔗 Најбољи АИ алати за програмере софтвера: Најбољи АИ асистенти за кодирање
Упоредите најбоље асистенте за вештачко кодирање за брже и чистије развојне токове рада.
🔗 10 најбољих AI алата за програмере за повећање продуктивности
Рангирана листа алата за вештачку интелигенцију за паметније кодирање и брзину.
🔗 Зашто вештачка интелигенција може бити лоша за друштво и поверење
Објашњава штетне ефекте у стварном свету: предрасуде, приватност, послови и ризици дезинформација.
🔗 Да ли је вештачка интелигенција отишла предалеко у одлукама са високим улогом?
Дефинише када вештачка интелигенција прелази границе: надзор, дипфејкови, убеђивање, недостатак пристанка.
Зашто је одговорност програмера који користе генеративну вештачку интелигенцију важнија него што људи мисле
Много софтверских грешака је иритантно. Дугме се поквари. Страница се споро учита. Нешто се сруши и сви стењу.
Проблеми генеративне вештачке интелигенције могу бити различити. Могу бити суптилни.
Модел може звучати самоуверено док је у криву. NIST GenAI профил Може репродуковати пристрасност без очигледних знакова упозорења. NIST GenAI профил Може открити осетљиве податке ако се користи непажљиво. OWASP Топ 10 за LLM апликације Осам питања ICO-а за генеративну вештачку интелигенцију Може произвести код који ради - све док не дође до неуспеха у продукцији на неки веома сраман начин. OWASP Топ 10 за LLM апликације Нешто као запошљавање веома ентузијастичног приправника који никад не спава и с времена на време измишља чињенице са запањујућим самопоуздањем.
Зато одговорност програмера који користе генеративну вештачку интелигенцију већа од пуке имплементације. Програмери више не граде само логичке системе. Они граде вероватносне системе са нејасним ивицама, непредвидивим излазима и стварним друштвеним последицама. NIST AI RMF
То значи да одговорност укључује:
-
разумевање ограничења модела NIST AI RMF
-
заштита приватности корисника, смернице ICO-а о вештачкој интелигенцији и заштити података
-
смањење штетних излаза NIST GenAI профил
-
провера тачности пре него што се додели поверење NIST GenAI профил
-
разјашњавање људске улоге ОЕЦД принципа вештачке интелигенције
-
дизајнирање резервних путева када вештачка интелигенција не успе OECD принципи вештачке интелигенције NCSC смернице за безбедну вештачку интелигенцију
-
јасно документовање система OECD принципа вештачке интелигенције
Знате како то иде - када се алат чини магичним, људи престају да га преиспитују. Програмери не могу себи да приуште толико опуштености.
Шта чини добру верзију одговорности програмера који користе генеративну вештачку интелигенцију? 🛠️
Добра верзија одговорности није перформативна. Она није само додавање одрицања одговорности на дну и називање тога етиком. Она се огледа у избору дизајна, навикама тестирања и понашању производа.
Ево како обично изгледа одговорности програмера који користе генеративну вештачку интелигенцију
-
Намерна употреба NIST AI RMF-а
-
Вештачка интелигенција се користи за стварни проблем, а не уграђује се у производ зато што звучи модерно.
-
-
Људски надзор ОЕЦД принципи вештачке интелигенције
-
Људи могу прегледати, исправити, поништити или одбацити резултате.
-
-
Безбедност по дизајну NCSC смернице за безбедну вештачку интелигенцију
-
Контроле ризика се уграђују рано, а не лепе се касније.
-
-
Транспарентност Принципи ОЕЦД-а за вештачку интелигенцију Преглед закона Европске комисије о вештачкој интелигенцији
-
Корисници разумеју када је садржај генерисан вештачком интелигенцијом или уз помоћ вештачке интелигенције.
-
-
Осам питања за генеративну вештачку интелигенцију у оквиру ICO-а за бригу о подацима
-
Осетљиве информације се пажљиво третирају, а приступ је ограничен.
-
-
Провере правичности NIST GenAI профил ICO смернице о вештачкој интелигенцији и заштити података
-
Систем се тестира на пристрасност, неуједначене перформансе и штетне обрасце.
-
-
Континуирано праћење NIST AI RMF NCSC смерница за безбедну AI
-
Лансирање није циљна линија. То је више као стартни звиждук.
-
Ако вам то звучи као много, па... јесте. Али то је ствар када радите са технологијом која може утицати на одлуке, веровања и понашање у великим размерама. OECD принципи вештачке интелигенције
Табела поређења - преглед главне одговорности програмера који користе генеративну вештачку интелигенцију 📋
| Област одговорности | На кога то утиче | Дневна пракса програмера | Зашто је важно |
|---|---|---|---|
| Тачност и верификација | корисници, тимови, купци | Прегледајте излазе, додајте слојеве валидације, тестирајте граничне случајеве | Вештачка интелигенција може бити течна, а ипак јако погрешна - што је груба комбинација, према NIST GenAI профилу |
| Заштита приватности | корисници, клијенти, интерно особље | Минимизирајте употребу осетљивих података, бришите упите, контролишите логове | Када приватни подаци процуре, паста за зубе је ван тубе 😬 Осам питања ICO-а за генеративну вештачку интелигенцију OWASP Топ 10 за LLM апликације |
| Пристрасност и правичност | недовољно заступљене групе, сви корисници заиста | Ревизија излаза, тестирање различитих улаза, подешавање заштитних мера | Штета није увек гласна - понекад је систематска и тиха , NIST GenAI профил, ICO смернице о вештачкој интелигенцији и заштити података |
| Безбедност | системи компаније, корисници | Ограничите приступ моделу, заштитите се од брзог убризгавања, ризичне радње у „песчанику“ | Један паметан експлоат може брзо да уништи поверење OWASP Топ 10 за LLM апликације NCSC о вештачкој интелигенцији и сајбер безбедности |
| Транспарентност | крајњи корисници, регулатори, тимови за подршку | Јасно означите понашање вештачке интелигенције, објасните ограничења, документујте употребу | Људи заслужују да знају када машина помаже принципа вештачке интелигенције ОЕЦД-а о означавању и етикетирању садржаја генерисаног вештачком интелигенцијом |
| Одговорност | власници производа, правни тимови, програмери | Дефинишите власништво, поступање са инцидентима, путеве ескалације | „Вештачка интелигенција је то урадила“ није одговор одраслих, према принципима ОЕЦД-а за вештачку интелигенцију |
| Поузданост | сви који додирују производ | Пратите кварове, поставите прагове поузданости, креирајте резервну логику | Модели лутају, не успевају на неочекиване начине и с времена на време имају драматичне мале епизоде, NIST AI RMF NCSC за безбедну AI |
| Благостање корисника | посебно рањиви корисници | Избегавајте манипулативни дизајн, ограничите штетне резултате, прегледајте случајеве употребе високог ризика | Само зато што се нешто може генерисати не значи да би требало да буде OECD АИ принципи NIST АИ RMF |
Мало неравни сто, сигурно, али то одговара теми. Права одговорност је такође неравна.
Одговорност почиње пре првог захтева - избор правог случаја употребе 🎯
Једна од највећих одговорности програмера јесте одлучивање да ли генеративну вештачку интелигенцију уопште треба користити . NIST AI RMF
То звучи очигледно, али се стално прескаче. Тимови виде модел, узбуђе се и почињу да га форсирају у токове рада који би се боље решавали правилима, претрагом или обичном софтверском логиком. Није сваком проблему потребан језички модел. Неким проблемима је потребна база података и мирно поподне.
Пре изградње, програмери би требало да питају:
-
Да ли је задатак отвореног типа или детерминистички?
-
Да ли погрешан излаз може проузроковати штету?
-
Да ли корисницима треба креативност, предвиђање, сумирање, аутоматизација - или само брзина?
-
Хоће ли људи превише веровати резултатима? NIST GenAI профил
-
Може ли човек реално да прегледа резултате? Принципи вештачке интелигенције ОЕЦД-а
-
Шта се дешава када је модел погрешан? OECD принципи вештачке интелигенције
Одговоран програмер не пита само: „Можемо ли ово да направимо?“ Он пита: „Да ли ово треба да се гради на овај начин?“ NIST AI RMF
То питање само по себи спречава много сјајних глупости.
Тачност је одговорност, а не бонус ✅
Будимо јасни - једна од највећих замки у генеративној вештачкој интелигенцији јесте погрешно разумевање елоквенције са истином. Модели често производе одговоре који звуче углађено, структурирано и дубоко убедљиво. Што је дивно, све док садржај не постане бесмислица умотана у поверење. NIST GenAI профил
Дакле, одговорност програмера који користе генеративну вештачку интелигенцију укључује изградњу за верификацију.
То значи:
-
коришћењем проналажења или уземљења где је то могуће , NIST GenAI профил
-
одвајање генерисаног садржаја од потврђених чињеница OECD принципи вештачке интелигенције
-
пажљиво додавање прагова поузданости NIST AI RMF
-
креирање токова рада за преглед резултата са високим улогом, принципи вештачке интелигенције ОЕЦД-а
-
спречавање импровизације модела у критичним контекстима NIST GenAI профил
-
тестирање које покушава да поквари или обмане систем OWASP Топ 10 за LLM апликације
Ово је веома важно у областима као што су:
-
здравствена заштита
-
финансије
-
правни токови рада
-
образовање
-
корисничка подршка
-
аутоматизација предузећа
-
генерисање кода
Генерисани код, на пример, може изгледати уредно, а истовремено скривати безбедносне недостатке или логичке грешке. Програмер који га слепо копира није ефикасан - он једноставно пребацује ризик на друге у лепшем формату. OWASP Топ 10 за LLM апликације NCSC о вештачкој интелигенцији и сајбер безбедности
Модел може помоћи. Програмер и даље поседује резултат. OECD принципи вештачке интелигенције
Приватност и заштита података су неоспорни 🔐
Овде ствари брзо постају озбиљне. Генеративни вештачки интелигентни системи често се ослањају на упите, логове, контекстне прозоре, слојеве меморије, аналитику и инфраструктуру трећих страна. То ствара многе шансе за цурење осетљивих података, њихово очување или поновну употребу на начине које корисници никада нису очекивали. Осам питања ICO-а за генеративни вештачки интелигентни ... (OWASP Top 10 for LLM Applications)
Програмери имају одговорност да заштите:
-
лични подаци
-
финансијски записи
-
медицински детаљи
-
интерни подаци компаније
-
пословне тајне
-
токени за аутентификацију
-
комуникација са клијентима
Одговорне праксе укључују:
-
минимизирање података који улазе у модел ICO осам питања за генеративну вештачку интелигенцију
-
маскирање или уклањање идентификатора NIST GenAI профил
-
ограничавање чувања логова, смернице ICO-а о вештачкој интелигенцији и заштити података
-
контролисање ко може да приступи упитима и излазима OWASP Топ 10 за LLM апликације
-
Пажљиво прегледајте подешавања добављача, смернице за безбедну вештачку интелигенцију NCSC-а
-
изоловање високоризичних радних процеса, смернице за безбедну вештачку интелигенцију NCSC-а
-
учинити понашање у вези са приватношћу видљивим корисницима, осам питања ICO-а за генеративну вештачку интелигенцију
Ово је једно од оних подручја где „заборавили смо да размишљамо о томе“ није мала грешка. То је неуспех који нарушава поверење.
А поверење, једном када се напукне, шири се попут испуштеног стакла. Можда није баш најлепша метафора, али схватате.
Пристрасност, правичност и заступљеност - тише одговорности ⚖️
Пристрасност у генеративној вештачкој интелигенцији ретко је цртани негативац. Обично је много скривенија од тога. Модел може произвести стереотипне описе послова, неуједначене одлуке о модерирању, једностране препоруке или културно уске претпоставке, а да притом не покрене очигледне аларме. NIST GenAI профил
Зато је одговорност програмера који користе генеративну вештачку интелигенцију укључена у активан рад на праведности.
Програмери би требало да:
-
тестни задаци из различитих демографских група и контекста NIST GenAI профил
-
преглед резултата за стереотипе и искљученост NIST GenAI профил
-
укључити различите перспективе током евалуације NIST AI RMF
-
Пазите на неуједначене обрасце кварова NIST GenAI профила
-
избегавајте претпоставку да један језички стил или културна норма одговара свима; смернице ICO-а о вештачкој интелигенцији и заштити података
-
креирати канале за пријављивање штетних резултата NIST AI RMF
Систем може изгледати као да генерално добро функционише, а да константно неким корисницима служи лошије од других. То није прихватљиво само зато што просечне перформансе изгледају лепо на контролној табли. Смернице ICO-а о вештачкој интелигенцији и заштити података NIST GenAI профил
И да, праведност је тежа од уредне контролне листе. У њој је садржан просуђивање. Контекст. Компромиси. И извесна мера нелагодности. Али то не уклања одговорност - потврђује је. Смернице ICO-а о вештачкој интелигенцији и заштити података
Безбедност је сада делом брзог дизајна, делом инжењерске дисциплине 🧱
Генеративна вештачка интелигенција је своја посебна звер. Традиционална безбедност апликација је и даље важна, наравно, али системи вештачке интелигенције додају необичне површине за напад: убризгавање промпта, индиректну манипулацију промптом, небезбедну употребу алата, крађу података кроз контекст и злоупотребу модела кроз аутоматизоване токове рада. OWASP Топ 10 за LLM апликације NCSC о вештачкој интелигенцији и сајбер безбедности
Програмери су одговорни за обезбеђивање целог система, а не само интерфејса. NCSC смернице за безбедну вештачку интелигенцију
Кључне одговорности овде укључују:
-
санирање непоузданих уноса OWASP топ 10 за LLM апликације
-
ограничавање алата које модел може да позове OWASP Топ 10 за LLM апликације
-
ограничавање приступа датотекама и мрежи, смернице за безбедну вештачку интелигенцију NCSC-а
-
јасно раздвајање дозвола смернице NCSC за безбедну вештачку интелигенцију
-
праћење образаца злоупотребе смернице за безбедну вештачку интелигенцију NCSC-а
-
ограничавање стопе скупих или ризичних акција OWASP Топ 10 за пријаве за мастер права
-
тестирање контрадикторних подстицаја OWASP Топ 10 за LLM апликације
-
изградња безбедних резервних опција када су упутства у супротности са принципима вештачке интелигенције ОЕЦД-а
Једна непријатна истина је да ће корисници - и нападачи - апсолутно покушати ствари које програмери нису очекивали. Неки из радозналости, неки из злобе, неки зато што су кликнули на погрешну ствар у 2 ујутру. Дешава се.
Безбедност за генеративну вештачку интелигенцију је мање као изградња зида, а више као управљање веома брбљивим чуваром капије који понекад буде преварен фразирањем.
Транспарентност и сагласност корисника су важнији од блиставог корисничког искуства 🗣️
Када корисници интерагују са вештачком интелигенцијом, требало би да то знају. ОЕЦД-ов Кодекс праксе принципа вештачке интелигенције о означавању и етикетирању садржаја генерисаног вештачком интелигенцијом
Не нејасно. Не закопано у терминима. Јасно.
Кључни део одговорности програмера који користе генеративну вештачку интелигенцију јесте осигуравање да корисници разумеју:
-
када се користи вештачка интелигенција Принципи вештачке интелигенције ОЕЦД-а
-
Шта вештачка интелигенција може, а шта не може да уради, принципи ОЕЦД-а за вештачку интелигенцију
-
да ли људи прегледају резултате OECD принципе вештачке интелигенције
-
како се њихови подаци обрађују, осам питања ICO-а за генеративну вештачку интелигенцију
-
који ниво поверења треба да имају NIST AI RMF
-
како пријавити проблеме или се жалити на одлуке OECD принципи AI NIST AI RMF
Транспарентност није плашење корисника. Ради се о поштовању истих.
Добра транспарентност може да укључује:
-
ознаке као што су Кодекс праксе о означавању и етикетирању садржаја генерисаног
-
објашњења једноставним језиком OECD принципи вештачке интелигенције
-
видљиве историје измена где је то релевантно
-
опције за искључивање вештачке интелигенције
-
ескалација на човека када је потребно OECD принципи вештачке интелигенције
-
Кратка упозорења за задатке високог ризика Преглед закона Европске комисије о вештачкој интелигенцији
Многи тимови за производе брину да ће искреност учинити да функција делује мање магично. Можда. Али лажна сигурност је гора. Глатки интерфејс који крије ризик је у основи углачана конфузија.
Програмери остају одговорни - чак и када модел „одлучи“ 👀
Овај део је веома важан. Одговорност се не може пребацити на добављача модела, картицу модела, шаблон за упит или мистериозну атмосферу машинског учења. OECD принципи вештачке интелигенције NIST AI RMF
Програмери су и даље одговорни. Принципи вештачке интелигенције ОЕЦД-а
То значи да неко у тиму треба да поседује:
-
избор модела NIST AI RMF
-
стандарди тестирања NIST GenAI профил
-
критеријуми за објављивање NIST GenAI профила
-
Смернице NCSC за безбедну вештачку интелигенцију у вези са реаговањем на инциденте
-
поступање са жалбама корисника NIST AI RMF
-
процедуре враћања на претходну историју Принципи вештачке интелигенције ОЕЦД-а
-
Праћење промена Принципи вештачке интелигенције ОЕЦД-а
-
документација ОЕЦД принципи вештачке интелигенције
Требало би да постоје јасни одговори на питања као што су:
-
Ко одобрава примену? NIST GenAI профил
-
Ко прегледа инциденте са штетним излазом? NIST GenAI профил
-
Ко може да онемогући функцију? Принципи вештачке интелигенције ОЕЦД-а
-
Ко прати регресије? NIST AI RMF
-
Ко комуницира са корисницима када се нешто поквари? OECD принципи вештачке интелигенције
Без власништва, одговорност се претвара у маглу. Сви претпостављају да се неко други тиме бави... а онда то нико не ради.
Тај образац је, истина је, старији од вештачке интелигенције. Вештачка интелигенција га једноставно чини опаснијим.
Одговорни програмери граде за исправку, а не за савршенство 🔄
Ево малог обрта у свему овоме: одговоран развој вештачке интелигенције није претварање да ће систем бити савршен. Ради се о претпоставци да ће на неки начин пропасти и дизајнирању око те стварности. NIST AI RMF
То значи изградњу производа који су:
-
ОЕЦД принципи вештачке интелигенције који се могу ревидирати
-
одлуке и резултати могу се касније прегледати
-
-
прекидиви принципи ОЕЦД-а за вештачку интелигенцију
-
људи могу зауставити или превазићи лоше понашање
-
-
надокнадиви принципи ОЕЦД-а за вештачку интелигенцију
-
постоји резервно решење када је излаз вештачке интелигенције погрешан
-
-
пративе смернице за безбедну вештачку интелигенцију NCSC-а NIST AI RMF
-
Тимови могу уочити обрасце пре него што постану катастрофе
-
-
побољшани NIST GenAI профил
-
повратне петље постоје и неко их чита
-
Овако изгледа зрелост. Не блиставе демонстрације. Не задихан маркетиншки текст. Прави системи, са заштитним оградама, логовима, одговорношћу и довољно скромности да се призна да машина није чаробњак. Смернице за безбедну вештачку интелигенцију NCSC-а, Принципи вештачке интелигенције OECD-а.
Зато што није. То је алат. Моћан, да. Али ипак алат.
Завршна рефлексија о одговорности програмера који користе генеративну вештачку интелигенцију 🌍
Дакле, која је одговорност програмера који користе генеративну вештачку интелигенцију ?
То значи градити пажљиво. Преиспитати где систем помаже, а где штети. Заштитити приватност. Тестирати пристрасност. Верификовати резултате. Обезбедити ток рада. Бити транспарентан са корисницима. Одржавати људска права под смисленом контролом. Остати одговоран када ствари крену по злу. NIST AI RMF OECD AI принципи
То можда звучи претешко - и јесте. Али то је такође оно што разликује промишљени развој од непромишљене аутоматизације.
Најбољи програмери који користе генеративну вештачку интелигенцију нису они који терају модел да изводи највише трикова. Они су они који разумеју последице тих трикова и дизајнирају у складу са тим. Они знају да је брзина важна, али поверење је прави производ. Чудно, та старомодна идеја и даље је актуелна. NIST AI RMF
На крају крајева, одговорност није препрека иновацијама. Она је оно што спречава да се иновације претворе у скупо, турбулентно ширење са углађеним интерфејсом и проблемом поверења 😬✨
И можда је то најједноставнија верзија тога.
Градите смело, наравно - али градите као да би људи могли бити погођени, јер јесу. Принципи вештачке интелигенције ОЕЦД-а
Честа питања
Која је одговорност програмера који користе генеративну вештачку интелигенцију у пракси?
Одговорност програмера који користе генеративну вештачку интелигенцију протеже се далеко изван брзе испоруке функција. Она укључује избор правог случаја употребе, тестирање резултата, заштиту приватности, смањење штетног понашања и омогућавање да систем буде разумљив корисницима. У пракси, програмери остају одговорни за то како је алат дизајниран, праћен, исправљен и како се управља када дође до грешке.
Зашто генеративна вештачка интелигенција захтева већу одговорност програмера него обичан софтвер?
Традиционалне грешке су често очигледне, али генеративни кварови вештачке интелигенције могу звучати углађено, а истовремено бити погрешни, пристрасни или ризични. Због тога је проблеме теже уочити и корисницима је лакше да им грешком поверују. Програмери раде са вероватносним системима, тако да одговорност укључује руковање неизвесношћу, ограничавање штете и припрему за непредвидиве исходе пре лансирања.
Како програмери знају када генеративну вештачку интелигенцију не треба користити?
Уобичајена полазна тачка је питање да ли је задатак отвореног типа или се боље решава правилима, претрагом или стандардном софтверском логиком. Програмери би такође требало да размотре колико штете може да проузрокује погрешан одговор и да ли човек може реално да прегледа резултате. Одговорна употреба понекад значи одлуку да се генеративна вештачка интелигенција уопште не користи.
Како програмери могу смањити халуцинације и погрешне одговоре у генеративним вештачким интелигенцијалним системима?
Тачност треба да буде дизајнирана, а не претпостављена. У многим процесима развоја, то значи заснивање резултата на поузданим изворима, одвајање генерисаног текста од проверених чињеница и коришћење токова рада за преглед за задатке са већим ризиком. Програмери би такође требало да тестирају упите који су намењени да збуне или обману систем, посебно у областима као што су код, подршка, финансије, образовање и здравствена заштита.
Која је одговорност програмера који користе генеративну вештачку интелигенцију за приватност и осетљиве податке?
Одговорност програмера који користе генеративну вештачку интелигенцију укључује минимизирање података који улазе у модел и третирање упита, логова и излаза као осетљивих. Програмери би требало да уклоне идентификаторе где је то могуће, ограниче задржавање, контролишу приступ и пажљиво прегледају подешавања добављача. Корисници би такође требало да буду у стању да разумеју како се њихови подаци рукују, уместо да касније откривају ризике.
Како би програмери требало да се носе са пристрасношћу и правичношћу у генеративним вештачким интелигенцијама?
Рад на пристрасностима захтева активну евалуацију, а не претпоставке. Практичан приступ је тестирање подстицаја у различитим демографским групама, језицима и контекстима, а затим преглед резултата за стереотипе, искљученост или неуједначене обрасце грешака. Програмери би такође требало да креирају начине за кориснике или тимове да пријаве штетно понашање, јер систем може изгледати јак у целини, а ипак константно разочаравати одређене групе.
О којим безбедносним ризицима програмери треба да размишљају код генеративне вештачке интелигенције?
Генеративна вештачка интелигенција уводи нове површине за напад, укључујући брзо убризгавање, небезбедну употребу алата, цурење података кроз контекст и злоупотребу аутоматизованих радњи. Програмери би требало да „санифицирају“ непоуздан унос, ограниче дозволе алата, ограниче приступ датотекама и мрежи и прате обрасце злоупотребе. Безбедност се не односи само на интерфејс; она се односи на цео ток рада око модела.
Зашто је транспарентност важна приликом градње помоћу генеративне вештачке интелигенције?
Корисници би требало јасно да знају када је вештачка интелигенција укључена, шта може да уради и где су јој границе. Добра транспарентност може да укључује ознаке као што су „генерисано вештачком интелигенцијом“ или „уз помоћ вештачке интелигенције“, једноставна објашњења и јасне путеве до људске подршке. Таква врста искрености не слаби производ; помаже корисницима да успоставе поверење и доносе боље одлуке.
Ко је одговоран када генеративна вештачка интелигенција проузрокује штету или направи нешто погрешно?
Програмери и тимови за производе и даље сносе одговорност за исход, чак и када модел произведе одговор. То значи да треба да постоји јасна одговорност за одобравање имплементације, решавање инцидената, враћање на претходно стање, праћење и комуникацију са корисницима. „Модел је одлучио“ није довољно, јер одговорност мора остати на људима који су дизајнирали и покренули систем.
Како изгледа одговоран развој генеративне вештачке интелигенције након лансирања?
Одговоран развој се наставља и након објављивања кроз праћење, повратне информације, преглед и корекције. Јаки системи се могу ревидирати, прекидати, опоравити и дизајнирани су са резервним путевима када вештачка интелигенција откаже. Циљ није савршенство; циљ је изградња нечега што се може безбедно испитати, побољшавати и прилагођавати како се појављују проблеми из стварног света.
Референце
-
Национални институт за стандарде и технологију (NIST) - NIST GenAI профил - nvlpubs.nist.gov
-
OWASP - OWASP топ 10 за пријаве за мастер студије права - owasp.org
-
Канцеларија повереника за информације (ICO) - Осам питања ICO-а за генеративну вештачку интелигенцију - ico.org.uk