Подкрепете ни!

Ако харесвате Свежа Наука и редовно четете публикациите ни, оценявате работата ни и искате да продължаваме все така, подкрепете ни! :)

На този етап от съществуването си Свежа Наука има нужда от вашата помощ! Последвайте ни в социалните мрежи Facebook, Google+ и Twitter, за да подкрепите нашата кауза - разпространяване на наука и познание.

За повече информация, обмяна на идеи или публикуване на материали, се свържете с нас.

Все още не разбираме как изкуственият интелект взима решения

Home/Препоръчано, Технологии/Все още не разбираме как изкуственият интелект взима решения

Учени карат алгоритми да обясняват алгоритми. Извратено нали?

Самосъзнанието, или способността да разбираме и обясняваме себе си, е една от основните характеристиките на човека, както и разликата между изкуствения интелект и човешката интелигентност. Въпреки, че не сме способни на 100% да разберем себе си, в повече случаи сме в състояние да дадем рационално обяснение на постъпките си.

От друга страна, алгоритмите на изкуствения интелект (за кратко ИИ), обикновено са програмирани да взимат решение върху база от данни генерирана в процеса на учене. И това е, можем да видим съзнанието им, но в повечето случаи не сме способни да разберем как това разграничава едно взимане решение от друго. Това ограничава способността ни да разберем, коригираме и подобрим ИИ, особено в случаите когато взима решение, което не би хрумнало на нас. Сега, група изследователи (физици, невробиолози, математици и програмисти) се опитват да променят това.

Да вземем предвид как ИИ разпознава хора на снимки. Когато засипем ИИ със снимки на хора, той открива повтарящи се модели и зависимости в изображенията. Често тези масиви от данни са толкова сложни, че за човек е невъзможно да проследи линейната връзка създадена от машината. И ако зависимостта в един момента се окаже грешна, ние не сме способни да разберем защо.

Ново проучване от Университета в Калифорния и Институтите Баркели и Макс Планк, може би дава известно решение – ИИ алгоритъм, който да анализира генерираните масиви от данни по два начина: първо, докато машината се опитва да отговори на оригиналния въпрос за който е създадена; и второ, да анализира информацията генерирана в процеса на взимане на решение. Изходния материал е нещо като скрипт, на разбираем език. Вместо да се опитваме да разберем защо ИИ греши, алгоритъмът ще документира детайлно процеса на взимане на решение. (Предполагам сте гледали сериала Westworld – скриптовете на хостовете). Иначе казано, машините ще аргументират себе си във взимането на решения.

  • Въпрос: Какъв е този спорт? Отговор: бейзбол. Аргумент: играчът държи бухалка;
  • Въпрос: Какъв е този спорт? Отговор: бейзбол. Аргумент: играчът размахва бухалка.

За момента способността на алгоритъма се ограничава до разпознаването на човешки действия, като играене на бейзбол, каране на колело и т.н.. Обучаван е върху два сета от информация, веднъж да разпознава какво се случва на снимката, и след това да отговори на въпроса „защо“.

  • Първият етап използва снимки на хора с определено действие, които са обвързани с различни описания на снимката, както и описания на самото действие. Ако описанието на сцената се отнася до два обекта, то аргументите се отнасят до трети, четвърти и т.н.. Така машината трябва да аргументира с допълнителна информация първоначалния си избор.
  • Вторият етап използва изображения асоциирани с 3 основни въпроса и 10 отговора за всеки от тях. Например, „Човекът на снимката плува ли? Не, Защото … човекът дори не е близо до вода.“

Така, когато поискаме от невронната мрежа да обясни защо мисли, че на снимката е показано бейзбол, тя се връща по пътя през който е стигнала до това заключение, намира бухалката, след което намира човека замахнал с бухалката, и казва: „играчът замахва с бухалка“. Учените наричат този метод „посочване и обосноваване“, защото може да посочи информацията, която е използвана за взимането на това решение.

Въпреки че разполагаме с ИИ алгоритми, които ежедневно използваме в услуги като автоматично тагване на снимки и гласово разпознаване, повечето от тях са трудни за разбиране, дори от техните създатели. Ако софтуерът направи грешка, както преди време се случи с Google Photos – когато системата реши, че черните хора са горили, разработчиците не бяха в състояние бързо да решат проблема – поради простата причина, че не можеха да разберат какво точно е накарало система да вземе това решение.

„Инженерите разработиха системи за дълбоко обучение, които в действителност някак си работят – разпознават лица на хора, котки, кучета, без да можем да разберем защо те работят, или каква е логиката зад взимането на тези решения.“ – Kate Crawford, Microsoft

Този проблем се простира до ядрото на машинното учене – когато даден алгоритъм се учи, той разглежда данни, например снимки на хора правещи различни неща, извлича съществената информация, и след това сортира тези парчета в съзвездия от данни, които само той може да разбере. Самият процес на учене, който се постига без намесата на човешки фактор, прави тези алгоритми несравними с нищо познато до момента – това не е светофар, не е кола, за тези неща знаем как са направени, но невронните мрежи направо разбиха тази парадигма на пух и прах. И въпреки това работят.

„Ние не сме изобретили дълбоките невронни мрежи по традиционния начин, те са взаимствани от работата на мозъка, ние само създадохме алгоритмите с които да ги храним. Останалото те научиха от самосебе си.“- Kate Saenko, Boston University

Затова и работата на институтите Баркели и Макс Планк е толкова важна: взимаме идея от съзнанието на машината и го превеждаме на човешки език. Вместо да извеждаме решенията като серия от математически уравнения, машината отново върши тежката работа и извежда смислен резултат. Ако сте имали възможността да погледнете в масивите за взимане на решение, те изглеждат като сетове от ужасно дълги низове от числа, често от стотици хиляди цифри. Сега с новия алгоритъм, машината сама анализира тези масиви от данни, намира смисъла и общото между тях, за да го обясни на разбираем за хората начин.

И въпреки, че това проучване е голямо постижение за ИИ, то не е пълно решение на проблема, защото за момента е приложимо само в тясно специфични ситуации. Но определено е стъпка към бъдещето, където можем да поискаме от машината да обясни действията си, и да получим ясен и лесен отговор. Това ще е изключително ценно, особено когато възложим още по-критични системи в ръцете на изкуствения интелект, като например да поеме пълен контрол над колата ви. Ако се научат да лъжат, това обаче, е съвсем друг проблем.

Добави коментар