Гари Маркус, когнитивен учен от университета в Ню Йорк, има тригодишна дъщеря Клои, която обичаше комплектите Lego. Всичките му сгради обаче бяха вертикални, сочещи отдолу нагоре. Ето защо един ден баща й донесе лего ленти, което ви позволява да изграждате творения от лего кубчета или настрани, или с главата надолу. Отначало той предложи на дъщеря си да застане отстрани на масата, но за миг Клои сама залепи лентата на стената и статуята на легиона й стърчи от стената за няколко минути.
Маркус всъщност направи експеримент, за да види дали Клои ще може да приложи това, което вече знаеше за дейността, в нов контекст. Клои показа здрав разум тук, вид интелигентност, която прави изкуствения интелект, по-фокусиран върху възпроизводството, проблеми. Но Маркус вярва, че изкуственият интелект може да се научи по същия начин като децата.
Изследователите на машинното обучение казват, че компютрите, обучени на големи количества данни, могат да научат всичко, включително здравия разум, те се нуждаят само от няколко програмирани правила. Според Маркус обаче компютърните учени игнорират десетилетия работа в когнитивната наука и психологията на развитието, които показват, че хората имат вродени способности, програмирани инстинкти, които се появяват при раждането или в ранна детска възраст, и ни помагат да мислим също така абстрактно и гъвкаво като Клои Той смята, че учените трябва да включват точно такива инстинкти в своите програми за изкуствен интелект.
Много компютърни учени все още изследват границите на това, с което може да се справи „наивният“ изкуствен интелект. Мнозина се противопоставят на влагането на твърде много предишни знания. Освен това много учени оценяват простотата и имат отвращение към отстраняване на грешки на твърде сложен код. Друг фактор са компании като Facebook или Google, които се интересуват най-много от изкуствен интелект, фокусиран върху тясно дефинирани проблеми, като например уеб търсене или разпознаване на лица. Системите за изкуствен интелект не се нуждаят от предварителни знания за тези задачи и могат да бъдат обучавани на големи масиви от данни. В същото време те постигат много добри резултати в тях.
В дългосрочен план обаче учените очакват изкуственият интелект да изпълнява много по-сложни задачи, които изискват гъвкавост и здрав разум. Те искат да създадат чат-ботове, които да обясняват новините, автономни таксита, които се справят с хаотичен градски трафик, и роботи, лекуващи възрастни хора. „Ако искаме да създадем роботи, способни да взаимодействат в целия човешки свят, като C-3PO“, казва Джош Тененбаум, психолог от Масачузетския технологичен университет (MIT), „ще трябва да решим всички тези проблеми на много по-общо ниво. "
Някои компютърни учени вече се опитват. През февруари MIT стартира проекта Intelligence Quest, изследователска инициатива за разбиране на човешкия интелект от техническа гледна точка. Проектът вече е получил инвестиции от няколкостотин милиона долара. Учените се надяват да получат изкуствен интелект някъде на границата между чисто машинно обучение и чист инстинкт. Той ще следва някои вградени правила, но също така ще се учи както преди.
Важна част от тази задача ще бъде да разберете какво и кога знаят децата - тези знания след това могат да бъдат приложени към машини. Съвсем наскоро Институтът за изкуствен интелект "Алън" в Сиатъл, Вашингтон, събра 125 милиона долара за разработване и тестване на здравия разум в изкуствения интелект. „Бихме искали да надграждаме върху структурата, която е вродена в човешкия мозък, - казва Орен Ециони, генерален директор на института, - но не разбираме как мозъкът обработва езика, мисленето и знанията.“
С течение на времето изкуственият интелект (AI) премина от алгоритми, базирани на програмирани правила и логика, към машинно обучение, където алгоритмите съдържат няколко правила и получават данни при обучение при опити и грешки. Човешкият ум е някъде между тях.
„Опитваме се да сбъднем една от най-старите мечти за ИИ: че бихме могли да изградим машина, която да развива своята интелигентност, както прави човек - тя започва като дете и се учи като дете“, обяснява Тененбаум. През последните години AI показа, че може да превежда речта, да диагностицира рак и да побеждава хората в покера. Винаги обаче може да възникне грешка. Дори алгоритми, които могат да разграничат породите кучета по-добре от вас, понякога могат да обозначат чихуахуа като кифла с боровинки.
Машинното обучение - вид изкуствен интелект - е отговорно за тези успехи и неуспехи. Може да се каже, че изкуственият интелект се е преместил от софтуер, който разчита на много програмирани правила, към системи, които се учат чрез проби и грешки. Мощните компютри, големи данни и напредък в алгоритмите, наречени невронни мрежи, направиха това възможно, по модел на невроните в човешкия мозък.
Тази процедура е използвана в програмата Alpha на DeepMind, която сега е собственост на Google. През 2016 г. AlphaGo победи човешкия шампион в класическата китайска стратегическа игра Go. Година по-късно AlphaGo Zero лесно спечели AlphaGo с много по-малък брой правила. И няколко месеца по-късно, още по-проста система AlphaZero победи AlphaGo Zero и се научи да играе шах. Въпреки че IBM Deep Blue победи шахматния гросмайстор Гари Каспаров през 1997 г., това беше класически изкуствен интелект, основан на правила. Оказа се обаче, че истинската виртуозност на шаха се крие в познаването на изключенията и изключенията от изключенията и т.н. И такава информация се получава най-добре чрез опит. Ето защо AlphaZero, който се учи отново и отново, може да победи Deep Blue, най-добрите шахматни програми днес и всеки шампион.
Но системи като Alpha не могат да извлекат своя опит въз основа на здравия разум. Ако Алфа трябваше да играе, отидете на дъска 21 × 21 вместо на класическата 19 × 19, тя ще трябва да научи играта отново. Така че тя не може да прехвърля знания от една област в друга, както направи Клои, когато започна да изгражда лего кубчета с главата надолу.
Решението не е връщане към изкуствения интелект, основан на правила. Дори едно дете няма да разпознае куче въз основа на правила като че "броят на крайниците му = 4, има опашка и е по-голям от котка". Такива правила не биха позволили да се разпознае напр. чихуахуа с три крака. Хората имат предразположения, които им помагат да научат и оправдаят света. Природата не ни предоставя готов набор от умения, а „скеле“ за изграждането им.
Според психолозите имаме поне четири системи на „основно знание“, които ни дават основа за разбиране на обекти, дейности, числа и пространство. Например, според едно проучване, деца на възраст над 3 дни интерпретират двата края на частично затъмнена пръчка като част от едно цяло - предполага, че мозъкът ни може да е предразположен да възприема сплотени обекти.
Маркус е съставил минимален списък от 10 човешки инстинкта, които според него трябва да бъдат вградени в ИИ. Това включва например понятието причинно-следствена връзка, анализ на разходите и ползите и т.н. Ян ЛеКун, компютърен учен от Нюйоркския университет, който сега провежда изследвания на ИИ във Facebook, не е съгласен с много психолози за развитие, като твърди, че ако децата могат да усвоят подобни умения за броени дни, и алгоритмите за машинно обучение. Неговите вярвания се основават на опит.
Той работи върху разпознаването на изображения и още през 80-те години той твърди, че ръчно програмирани алгоритми за идентифициране на функции в изображението могат да станат ненужни. Тридесет години по-късно той се оказа прав. Критиците са го питали защо трябва да се обучават умения, ако могат да бъдат изградени. Той отговори, че включването е трудно и ако не разбирате напълно как работи нещо, предложените от вас правила вероятно ще бъдат лоши.
Но Маркус посочи, че самият LeCun е вмъкнал един от 10-те ключови инстинкта в своите алгоритми за разпознаване на изображения: транслационна инвариантност, способността да разпознава обект, независимо къде се намира в зрителното поле. Транслационната инвариантност е принцип на конволюционните невронни мрежи. През последните пет години те се превърнаха в център за разпознаване на изображения.
LeCun казва, че транслационната неизменност също може да се появи спонтанно с по-добри общи механизми за обучение. Дискусията за това къде да поставим ИИ в спектъра между чистото обучение и чистия инстинкт ще продължи. Тук обаче често се пренебрегва още един практически проблем: как да се проектира и програмира такава смесена машина. Все още не е ясно как да се комбинират машинното обучение и милиардите параметри на невронната мрежа с правила и логика. Нито за това как да идентифицирате най-важните инстинкти и да ги програмирате гъвкаво. Това обаче не пречи на някои изследователи и компании да опитат.
Например Лабораторията по роботика в Университета на Нов Южен Уелс в Сидни, Австралия, се опитва да оборудва Toyota Human Support Robot (HSR), който има една ръка и екран вместо лице, с два човешки инстинкта. Първо, те искат да го научат да разбива проблема на по-малки и по-лесни задачи, точно както човек би разделил решението на няколко стъпки. Впоследствие те искат да дадат на робота способността да обосновава предположения и цели, докато хората инстинктивно мислят за намеренията на другите. Как например би реагирал HSR, ако някой го помоли да донесе червена чаша, но намери само синя чаша и червена чиния?
Техният софтуер демонстрира някои човешки способности, включително здравия разум, да донесе синя чаша, а не червена чиния. В софтуера обаче трябва да бъдат програмирани други правила. Например, изкуственият интелект трябва да каже, че думата чаша е по-важна от думата червен. В идеалния случай роботът трябва да има социални инстинкти за бързо усвояване на личните предпочитания.
Други изследователи се опитват да дадат на своя изкуствен интелект интуитивното познание по физика, което децата изглежда имат. Например учени от DeepMind разработиха т.нар мрежи за взаимодействие. Те включват определени предположения за физическия свят: има отделни обекти, които имат характерни взаимодействия. Точно както децата бързо анализират света чрез взаимодействията на съществата, тези системи също лесно научават свойствата на обектите и взаимоотношенията между тях. Резултатите предполагат, че мрежите за взаимодействие могат да предскажат, например, поведението на сфери, отскачащи се от стените на кутия, много по-точно от общата невронна мрежа.
Базираната в Калифорния компания Vicarious, която се фокусира върху софтуер за роботи, развива тази идея още повече в своята мрежа от схеми. Тези системи също предполагат съществуването на обекти и взаимодействия, но те също се опитват да извлекат причинно-следствена връзка, която ги свързва. Техният софтуер се научава да планира назад, въз основа на желания резултат. (Например не искам да ме сърби носа - вероятно ще бъде надраскан.)
Изследователите сравняват техния метод с най-съвременната невронна мрежа в Atari Breakout, при която играчът премества бухалка, за да отскочи топка, която след това чуква тухлите от стената. Мрежата от схеми може да научи за причинно-следствената връзка, напр. за топката, която рита тухлите в контакт, независимо от нейната скорост. След това можете да преместите тухлите или да оставите играча да жонглира с три топки - мрежата от схеми не се нуждае от допълнително обучение при промяна на играта. Неуспешна друга мрежа.
Една от най-предизвикателните задачи за изследователите е да програмират инстинктите гъвкаво, така че ИИ да се справя с хаотичен свят, където правилата не винаги се спазват. Например автономните автомобили не могат да разчитат на други водачи да спазват стриктно правилата за движение. За да се справи с тази непредсказуемост, Ноа Гудман, психолог и компютърен учен от университета Станфорд в Пало Алто, Калифорния, помага за разработването на вероятностни езици за програмиране (PPL).
Той ги описва като комбинация от солидни компютърни кодови структури с вероятностна математика, която отразява начина, по който хората могат да следват логиката, но също така взема предвид несигурността: Ако тревата е мокра, вероятно е валяло, но може би някой я е напоил. От решаващо значение PPL може да се комбинира с дълбоко обучение. Гудман казва, че PPL взема предвид не само физиката и логиката, но и начина, по който хората общуват и се справят със сложни форми на изразяване, като преувеличение, ирония и сарказъм.
Клои може да не разбира сарказма, докато не е на около 10 години. Но езиковото усещане на малките деца е ясно. Те съчетават думи и мисли като лего кубчета, смесват ги, адаптират ги и ги изпитват с нетърпение по целия свят. По същия начин с течение на времето те прецизират интуитивното си усещане за физика. И по този начин трябва да се научи изкуствен интелект.
- Nextech обича детето ви да пее Подкрепете го с това и вие също ще се забавлявате!
- Nextech Комбинацията от два подхода ще позволи на изкуствения интелект да опознае света като дете на много хора
- Неваксинирано дете в детската градина Просто изчакайте, докато има пет консервативни дневника
- Предстои детето да знае след една година Преглед на ориентацията за родителите
- Варено дете! Как ще оздравее п