Гугл суспендираше инженер за тврдење дека LaMDA има свест

Гугл неодамна суспендираше инженер на платено отсуство, откако го отфрли неговото тврдење дека нејзината вештачка интелигенција е свесна, со што се направи дополнителна галама, за најнапредната технологија на компанијата.

Блејк Лемоин (Blake Lemoine) , виш софтверски инженер во Responsible A.I. (одговорен АИ) на Google организацијата, во интервју изјави дека во понеделникот бил пуштен на одмор. Одделот за човечки ресурси на компанијата соопшти дека тој ја прекршил политиката за доверливост на Google. Еден ден пред неговата суспензија, г-дин Лемоин рече, тој ги предал документите на канцеларијата на американскиот сенатор, тврдејќи дека тие обезбедиле докази дека Google и неговата технологија се вклучени ворелигиозна дискриминација.




Гугл рече дека неговите системи имитираат разговори и можат да муабетат на различни теми, но немале свест. „Нашиот тим - вклучително етичари и технолози - ја разгледа загриженоста на Блејк за нашите А.И.принципи и го известивме дека доказите не ги поддржуваат неговите тврдења“, рече Брајан Габриел, портпарол на Google, во соопштението. „Некои во пошироката А.И. заедницата ја разгледува долгорочната можност за чувствителна или општа интелигенција, но нема смисла да се прави тоа со антропоморфизирање на денешните модели за разговор, кои не се чувствителни“. „Вашингтон пост“ прв ја објави суспензијата на г-дин Лемоин.

Со месеци, г-дин Лемоин се натегаше со менаџерите, директорите и човечките ресурси на Гугл поради неговото изненадувачко тврдење дека Јазичниот модел на компанијата за апликации за дијалог или LaMDA(Language Models for Dialog Applications ) има свест и душа. Google вели дека стотици негови истражувачи и инженери разговарале со LaMDA, внатрешна алатка, и дошле до различен заклучок од г-дин Lemoine. Повеќето А.И. експерти веруваат дека индустријата е многу долг пат од компјутерската свест.

Некои А.И. Истражувачи долго време изнесуваат оптимистички тврдења за овие технологии дека наскоро ќе достигнат свесност, но многу други многу брзо ги отфрлаат овие тврдења. „Ако ги користевте овие системи, никогаш не би кажале такви работи“, рече Емаад Кваја, истражувач на Универзитетот во Калифорнија, Беркли и Универзитетот во Калифорнија, Сан Франциско, кој истражува слични технологии.


Додека се обидувале да ја достигнат А.И. авангардата, истражувачката организација на Гугл ги помина последните неколку години заглавена во скандали и контроверзии. Научниците и другите вработени во одделот редовно се расправаа за прашањата поврзани со технологијата и персоналот во епизоди кои често се прелеваа во јавната арена. Во март, Гугл отпушти истражувач кој се обидел јавно да изрази несогласување со објавените трудови на двајца негови колеги.Тука се и отказите на двајца А.И. етичките истражувачи, Тимнит Гебру и Маргарет Мичел, откако ги критикуваа јазичните модели на Google, продолжија да фрлаат сенка врз групата.

Г-дин Лемоин, воен ветеран кој се опиша себеси како свештеник, поранешен осуденик и А.И. истражувач, им кажа на директорите на Гугл кои се јадредени, како Кент Вокер, претседателот за глобални прашања, дека верува дека ЛаМДА е дете на 7 или 8 години. Тој сакаше компанијата да побара согласност од компјутерската програма пред да изврши експерименти на неа. Неговите тврдења се основани на неговите религиозни убедувања, за кои рече дека одделот за човечки ресурси на компанијата ги дискриминирал.

„Постојано го доведуваа во прашање мојот разум“, рече г-дин Лемоин. „Тие рекоа: „Дали неодамна те прегледал психијатар?“ Во месеците пред да биде ставен на административно отсуство, компанијата му предложила да земе отсуство за ментално здравје.

Јан ЛеКун, шефот на А.И. истражување во Мета и клучна фигура во подемот на невронските мрежи, во интервју оваа недела рече дека овие типови системи не се доволно моќни за да се постигнат вистинска интелигенција.

Технологијата на Гугл е она што научниците го нарекуваат невронска мрежа, која е математички систем кој учи вештини со анализа на големи количини на податоци. На пример, со прецизно одредување на обрасци на илјадници фотографии од мачки, може да научи да препознава мачка.

Во текот на изминатите неколку години, Google и други водечки компании дизајнираа невронски мрежи кои учеа од огромни количини проза, вклучувајќи необјавени книги и илјадници написи на Википедија. Овие „големи јазични модели“ можат да се применат на многу задачи. Тие можат да резимираат написи, да одговараат на прашања, да генерираат твитови, па дури и да пишуваат објави на блогови.

Но, тие се со екстремни недостатоци . Понекогаш тие создаваат совршена проза. Понекогаш генерираат глупости. Системите се многу добри во пресоздавањето обрасци што ги виделе во минатото, но не можат да размислуваат како луѓе.