За вештачката интелигенција да прогресира, мора да сe објасни себе си
Објавено на од во НАУКА / ИНОВАЦИИ / БИЗНИС

 Вештачката интелигенција веќе би можела  да одлучува и за вработување. Системот може да ги земе возраста, полот, брачниот статус, способноста за кревање тежина и образованието како инпути, и да изработи бодови кои покажуваат колкава е веројатноста тој кандидат да биде добар работник

ai

 

За научната фантастика да се смета за успешна, потребно е да ги прикаже реалните надежи и стравови. Во 60-тите и 70тите, кога ХАЛ и Еди биле измислувани, обидите да се создаде вештачка интелигенција оделе мачно, па стравот и надежта биле хипотетички.  Тоа сега е променето. Изумот на длабоко учење, техника која користи посебни компјутерски програми наречени невронски мрежи кои продираат во големиот волумен на податоци барајќи и меморирајќи шеми, значи дека технологијата, која остава добар впечаток дека е интелигентна, се шири брзо. Апликациите се движат од транскрипција на говор во текст до рана дијагностика на слепило. Вештачката интелигенција сега ги управува секторите за контрола на квалитет во фабриките и системите за ладење во центрите за податоци. Владите се надеваат да ја употребат и во препознавање на веб сајтови со терористичка пропаганда кои би биле отстранувани од интернет мрежата. Таа е и централна во обидите да се развијат самоуправувачки возила. Од 10те најцитирани компании во светот, 7 велат дека имаат планови да постават длабоко учење базирано на вештачка интелигенција во срцата на нивните операции.

Вистинската вештачка интелигенција не е ни одблизу толку напредна како нејзиното вообичаено прикажување во филмовите со научна фантастика- секако и’ недостасува очигледната свесна мотивација од sci-fi стилот, но таа успеа да ги донесе надежта и стравот во денешницата наместо во некоја неодредена иднина и многу луѓе стравуваат дека и оваа нејзина лесна верзија e способнa да се претвори во чудовиште. Стравот доаѓа не толку од уреди кои престануваат да ги слушаат инструкциите и наместо следат своја агенда, туку од нешто што прави како што му е кажано (или барем пробува), но го прави на свој начин кој е неразбирлив.

Причината за овој страв е што програмите за длабоко учење учат така што ги преуредуваат нивните дигитални органи како одговор на шемите кои ги забележуваат во податоците кои ги преработуваат. Конкретно, тие го имитираат начинот на кој невронаучниците мислат дека реалниот мозок учи нешта, со тоа што ја менуваат силата на конекција помеѓу битовите на компјутерскиот код, кои пак се дизајнирани да се однесуваат како неврони. Ова значи дека дури ни дизајнерот на невронската мрежа, откако таа ќе се истренира, не може вистински да знае како таа го прави тоа што го прави. Па така, дозволувањето на таквите агенти да управуваат критични инфраструктури или да носат медицински одлуки значи доверување на човековите животи на делови од опрема чии операции никој вистински не ги разбира.

Еден од првите формални истражувачки програми кој пробал да ја отвори „црната кутија“ на вештачката интелигенција е проектот Explainable AI (XAI) или „Објаснувачка вештачка интелигенција“, воден од Агенцијата за одбрамбени напредни истражувачки проекти (DARPA), организација која ги врши повеќето воени истражувања на Америка. Посебно американските вооружени сили би сакале да користат вештачка интелигенција за да помогнат во военото набљудување. Дејв Ганинг, главen на проектот XAI, забележува дека набљудувањето на места како Северна Кореја од високо, со шпионски авион или сателит, создава голема количина на податоци. За аналитичарите кои ги гледаат овие податоци сигурно би било многу вредно ако постои нешто што автоматски би ги предупредило дека постои сомнителна активност. Исто, би било вредно ако агентот е способен да ги објасни своите одлуки, за личноста која е предупредена да може да ги забележи и игнорира неизбежните погрешни позитивни одговори. Ганинг вели дека аналитичарите на една од американските шпионски агенции, NSA, се веќе преплавени од препораките на старомодниот софтвер за препознавање на шеми кој ги приморува да испитаат одредени делови на информацијата. Сега кога вештачката интелигенција го преплавува светот, поважно од секогаш е способноста на компјутерските програми да објаснат зошто тие го предупредиле човек-операторот.

Секако, тајна е како NSA одговара на ова. Но, и цивилните програми се обидуваат да им дадат моќ на објаснување на невронските мрежи преку комуникација на нивните интерни состојби на начини разбирливи за човекот. На пример, истражувачка група за вештачка интелигенција на Тревор Дарел, од Универзитетот на Калифорнија, Беркли, има работено со софтвер трениран да препознае различни видови птици на фотографии. Наместо едноставно да идентификува, да речеме ластовичка, софтверот објаснува и дека тој така мисли зашто птицата е црно бела и со долг специфичен опаш за таа врста. Програмот ова го прави со помош на втора невронска мрежа составена од реченици кои луѓето ги имаат напишано како опис за фотографиите. Оваа мрежа е истренирана да се совпаѓа со интерните функции на агентот кој го прави препознавањето (на пример, со шемата на конекции меѓу битовите). Така, едниот систем учи да ги класифицира птиците, а другиот симултано учи да го класифицира однесувањето на првиот систем за да објасни како тој ги оформил своите одлуки.

Тим предводен од Марк Риедл на Институтот за технологија на Џорџиа има употребено слична техника за да охрабри вештачка интелигенција која се занимава со игри да ги објасни своите потези. Тимот побарал од луѓе да ги наратираат своите очекувања од играње на аркадна игра наречена Frogger. Тие потоа истренирале агент на вештачка интелигенција да ги спои овие наративи со интерните функции на втор агент кој веќе научил како да игра Frogger. Резултатот е систем кој произведува белешки на човеков јазик кој опишува како вториот агент ја игра играта.

Таквите начини на отворање на црната кутија градат една поента. Но тие можат да стигнат онолку далеку колку што може човекот зашто тие, во есенција, ги имитираат човековите објаснувања. Како што луѓето можат да ги разберат деталите на слики од птици и аркадни видео игри и да ги стават во зборови, така можат и машините кои ги копираат човековите методи. Но, енергетската залиха на еден голем центар за податоци или состојбата на нечие здравје се далеку потешки за човекот да ги анализира и опише. Вештачката интелигенција веќе ги надмина луѓето во таквите задачи, така што не постои можност човековите објаснувања да бидат земени како модел.

За среќа, постојат други начини да се испита и разбере аутпутот на вештачката интелигенција. Анупам Дата, компјутерски научник на универзитетот Карнеги Мелон, во Питсбург, не се обидува да погледне во црната кутија директно на начини како оние на др. Дарел и др. Ридл. Наместо, тој се обидува со „стрес- тестирање“ на аутпутите од тренираните системи- на пример, системот на кандидати за вработување.

Др. Дата го храни системот подложен на тестирање со инпутни податоци и го испитува аутпутот за избегливи, потенцијално штетни или дискриминаторни резултати. Тој дава пример на фирма за релокација на вработени која користи автоматски систем за вработување нови луѓе. Системот може да ги земе возраста, полот, брачниот статус, способноста за кревање тежина и образованието како инпути и да изработи бодови кои покажуваат колкава е веројатноста тој кандидат да биде добар работник.

Очигледно, еден дел од овие информации, способноста да се креваат тешки работи, е релевантен и е веројатно да ги фаворизира машките кандидати. Па така во овој случај, за да го тестира системот за пристрасност кон женските кандидати, програмот на др. Дата случајно менува избрани апликации од жени за да направи да изгледаат како да се од мажи и потоа, во одделна операција, ја заменува способноста за кревање тежина на жените со, повторно, случајно одбрани апликации од двата пола. Ако мешањето на половите не предизвикува промени во бројот на жени на кои им е понудена работа, но мешањето на способноста за кревање тежина го зголемува тој број (зашто сега некои жени имаат машки способности за кревање тежина), тогаш јасно е дека способноста за кревање тежина, а не полот на апликантот, го афектира процесот на вработување.

Пристапот на др. Дата не доаѓа до центарот на тоа како и зошто агентите ги прават одлуките кои ги прават, но, како стрес-тестирањето на авион, помага во стопирањето на непосакувани исходи. Тој им помага на оние кои го прават и оперираат агентот да се осигураат дека одлуките се базирани на вистинските инпути, а не на штетни корелации. Постојат уште начини за влегување во умот на машината. Некои инженери, на пример, се осврнуваат на техники како когнитивна психологија, која луѓето ја користат за да ги разберат сопствените умови. Тие аргументираат дека штом вештачките невронски мрежи би можеле да работат како мозоци, тогаш би имало смисла да се употребат алатките на човековата психологија за нивното истражување.

Еден пример на таков пристап е истражување на DeepMind, компанија за вештачка интелигенција во Лондон која е во сопственост на компанијата- родител на Google, Alphabet. Ова донело интригантен увид во однесувањето на дел од  софтвер за совпаѓање на слики кој го дизајнирала компанијата. Група на инженери од DeepMind, водени од Дејвид Берет, покажале дека софтверот истакнува сет од 3 слики. Првата слика од сетот е пробна слика со одредена форма и боја. Од другите две, едната се совпаѓала со формата, а другата со бојата на пробната слика. Со мерење колку често системот го одбирал совапаѓањето со формата во однос на она со бојата, др. Барет и неговиот тим биле способни да дедуцираат дека DeepMind ги разбира сликите на начин како и луѓето- повеќе според формата отколку бојата. Разјаснувањето на пошироките принципи за тоа како вештачката интелигенција одлучува  може да е корисно кога ќе дојде време таа да се распореди во светот. Може да им помогне и на истражувачите на сообраќајни несреќи со тоа што ќе ги насочи кон најверојаното објаснување за неуспех.

Оние кои се наколнети кон обидот да се отвори умот зад вештачката интелигенција имаат многу начини да го направат тоа.  Но, некои луѓе мислат дека целиот овој пристап оди во погрешна насока. Тие набљудуваат дека оние одлуки направени од вештачката интелигенција кои е најтешко да се прегледаат се неопходно најкомплексните и затоа се најверојатно најкорисни. Лесните задачи, како играње видео игри и именување на птици се од лимитирачка вредност. Одлуките направени додека се балансира електрична мрежа или кога се менаџира метежот на еден град се многу потешки за објаснување, особено што многу од нив се земени на нивоа над можностите на човековите процесирачки способности. Јошуа Бенгио, компјутерски инженер на универзитетот од Монтреал, овој процес го нарекува вештачка интуиција.

Др. Бенгио вели дека таква вештачка интуиција била на дисплеј во моментот на најголемата јавна демонстрација на длабокото учење некогаш. Ова било меч на Go кој се одржал во 2016 година помеѓу агент на вештачката интелигенција и Ли Седол, најдобриот човек играч. Агентот, AlphaGo, бил трениран од DeepMind. Тој некогаш правел неочекувани потези кои човековите експерти не можеле да ги објаснат. На почетокот тие потези изгледале дека се грешни. Но AlphaGo ја искористил својата изненадувачка положба за да го доминира остатокот од мечот.

Интригантно, вакви потези како овие некогаш се прават и од човековите мастери на играта Go. Тие во јапонската култура се познати како kami no itte (раката на бог или божествени потези). Како што сугерира самото име, играчот кој мисли дека потегот му е божествен вообичаено не може да каже како или зошто поставил одреден камен на одредено место. Навистина, фактот дека играчите не можат да го објаснат резонирањето зад нивните најдобри потези наговестува зошто старите компјутери за Gо кои се базирани на формална логика никогаш не биле добри. Невронските системи за учење, тие кои еволуирале во мозоци како и оние кои се сега вметнати во компјутерите,  се способни да играат Gо. Но човековиот јазик тоа не може да го објасни.

Пандорина кутија?

Постои круцијална разлика помеѓу објаснувањата кои луѓето ги нудат за своето однесување и оние достапни од машините. Како што објаснува Ден Спербер, когнитивен научник на Институтот на Jead Nicod во Париз, луѓето имаат тенденција да конструираат причини за нивното однесување кои се во линија со информациите меѓусебно достапни и за говорникот и за слушателот, со нивниот интерес, наместо детално да опишат како нивните мисли довеле до одлука. По неговите зборови, „причината да дадете причини е за другите да ги евалуираат вашите акции и верувања“. Денешните автоматски машини немаат свои сопствени интереси на кои ќе им служат. Наместо, нивните објаснувања се од и за луѓето.

Некои шпекулираат дека ова може да се смени во иднина доколку се воведе вештачката интелигенција, зашто исто како машините од sci-fi тие би имале свои интереси наместо само да им служат на луѓето. Џејкоб Тарнер, специјалист за интернационално право, предложува дека би можело да биде потребно воведување легален „персоналитет“ на вештачката интелигенција доколку оние оштетени од неа бараат компензација и правда.

Најверојатно патот до таму е долг. Но дури и денешните вештачки интелигенции може да покренат скокотливи легални прашања. Посебно, машинските умови кои не можат да се објаснат себе си или чија детална операција е над човековата можност, прават проблем за криминалното право. По ставот на Ребека Вилијамс, научник по право, доколку машините немаат способност да ги објаснат своите акции, можно е постоечкиот закон да се мачи во идентификувањето на криминалните намери во дела настанати поради нивни одлуки. „Во криминалното право, она што е интересно е кршењето на каузалноста од третата страна која не е човек. Тоа е навистина ново“, вели таа.

Овде не се работи за тоа дека агентите сами би се однесувале криминално еден ден. Но ако еден процес, според кој машина направила одлука, не би можел да биде предмет на вкрстено испитување зашто ни машината ниту нејзиниот креатор се способни да објаснат што се случувало, тогаш, одлучувањето за вината на човекот асоциран со таа одлука би можел да биде невозможен.

На пример, ако една невронска мрежа која авторизира позајмувања не може да објасни зошто дава одредени бодови на одредени луѓе, кои имаат изгледи на пристрасност кон една социјална група или друга, можно е да е невозможно да се одреди дали операторите го направиле тоа намерно (што би било незаконско во повеќето јуристикции), или причината е мрзливо кодирање на дизајнерите (што најверојатно би било предмет на цивилните судови наместо криминалните). Слично, ако вештачката интелигенција  која ги управува визуелните системи на автоматски такси возила е црна кутија која не може да биде испрашана за нејзините избори, можно би било да е тешко сознанието дали смртта предизвикана од тоа возило е вина на производителот или на компанијата одговорна за одржувањето.

Светот е сé уште неколку години пред моментот кога некој случај со автоматските возила ќе отиде на суд. Но, социјалната пристрасност е еминентно зачната уште сега. Не е потребна фантазијата на Артур Кларк или Даглас Адамс, дизајнерите на ХАЛ и Еди, последователно, за да се предвидат предностите на еден софтвер кој не само што може да делува, туку и да ги објаснува причините позади неговите акции.

Извор: Економист
Превод: Анета Иванова

Напишете коментар

Вашата адреса за е-пошта нема да биде објавена. Задолжителните полиња се означени со *

Вие можете да ги користите следните HTML ознаки: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

...Сите ние живееме во време, кога само идејата е капитал, сè друго е пари...
Најава
Регистрација

На вашата e-mail адреса ќе добиете лозинка за логирање на КАПИТАЛ.

Заборавена лозинка?

Внесете e-mail адреса или корисничко име со кое сте регистрирани на КАПИТАЛ.

×