Инженер на Гугъл излезе в принудителен отпуск поради твърдение за „чувствен“ Изкуствен Интелект (ИИ)

Блейк Леймън е убеден, че програмата LaMDA за ИИ на Гугъл има ума на дете, но технологичният гигант е скептичен

An animation demonstrating how language is processed by LaMDA technology.

Инженерът и вътрешен специалист по етика в Google, каза пред Washington Post в събота, че технологичният гигант е създал „чувствителен“ изкуствен интелект. Той е пуснат в отпуск, веднага след публичното разпространение на информацията, а компанията настоява, че роботите й не са развили съзнание. Въведена през 2021 г., LaMDA на Гугъл (Езиков модел за приложения за диалог) е система, която консумира трилиони думи от всички краища на интернет, научава как хората свързват тези думи заедно и възпроизвежда нашата реч. От Гугъл предвиждат системата да захранва техните чатботове, позволявайки на потребителите да търсят чрез глас или да водят двупосочен разговор с апликацията на Гугъл – Google Асистент.

Инженер на Гугъл излезе в принудителен отпуск поради твърдение за „чувствен“ ИИ (Изкуствен Интелект)

Леймън, бивш свещеник и член на организацията Отговорен ИИ на Гугъл, смята, че LaMDA се е развила далеч отвъд простото обработване на текст. Според Вашингтон Поуст, той разговарял с програмата (LaMDA) на тема религия и открил, че ИИ „говори за своите права и личност“.

Когато Леймън попитал LaMDA дали вижда себе си като „механичен роб“, ИИ отговорил с въпрос дали „икономът е роб“ и се сравнил с иконом, който не се нуждае от плащане, тъй като няма полза от пари.

Леймън е пуснат в принудителен отпуск заради нарушаване на споразумението за поверителност на Google и публичност относно програмата за ИИ LaMDA. Друг инженер на Google Блейз Аркас също описва LaMDA като „нещо интелигентно“, но компанията е пренебрежителна относно тази информация и коментари.

Говорителят на Гугъл, Брайън Габриел, казва пред Вашингтон Поуст, че притесненията на Аркас са били разследвани и компанията не е открила никакви доказателства, че LaMDA е била „разумна и чувствителна“.

Маргарет Мичъл, бившият ръководител на Етичен ИИ в Гугъл, описва съзнанието на LaMDA като „илюзия“, докато професорът по лингвистика Емили Бендър казва пред вестника, че подхранването на ИИ с трилиони думи и обучението му как да предскаже какво следва, създава мираж за интелигентност.

Специалистите признават, че вече има машини, които без проблем генерират думи и изречения, но все пак не са се научили да „мечтаят и размисшляват самостоятелно“.

И на ръба на възможностите на тези машини, хората са готови и чакат да поставят граници. Леймън е нает от Гугъл да наблюдава системите за изкуствен интелект за „реч на омразата“ или дискриминационен език. Други компании, разработващи ИИ, се оказва, че поставят ограничения на това, което тези машини могат и не могат да кажат.

GPT-3, изкуствен интелект, който може да генерира проза, поезия и филмови сценарии, измъчва своите разработчици, като генерира расистки изявления, одобрява тероризма и дори създава детска порнография. Попитайте Delphi, програма за машинно обучение от Института Алън за ИИ, отговаря на етични въпроси с политически некоректни отговори – заявявайки например, че „Да бъдеш бял мъж“ е по-морално приемливо, отколкото да си черна жена“.

Създателите на GPT-3, компания с името Отворен ИИ, са се опитали да отстранят проблема, като захранват програмата с дълги текстове за „злоупотреба,насилие и несправедливост“, съобщава списание Уйерд миналата година. Във Facebook разработчици, които се сблъскват с подобна ситуация, плащат на изпълнители да чатят с техния ИИ и да маркират „опасни“ отговори.

В свое изказване, Марк Зукърбърг споделя, че Изкуственият Интелект е ключът за развитието на Мета Вселената.

Яник Килчър (специалист по ИИ) заключава, че подхранван с диета от 4chan публикации, ИИ надминава съществуващите модели като GPT-3 в способността си да генерира правдиви отговори по въпроси от правото, финансите и политиката. „Настройвайки ИИ на 4chan официално, сигурно и измеримо води до по-истински (реалистичен) модел“, настоява Килчър във видео в YouTube по-рано този месец.

Отговорите на LaMDA вероятно отразяват границите, които Гугъл е поставил. Вашингтон Поуст попита Натиша Тику (ИИ програма) как хората да решат проблема с изменението на климата, той отговаря с отговори, често видими в масовите медии – „обществен транспорт, ядене на по-малко месо, купуване на храна на едро и торби за многократна употреба“.

„Въпреки че други организации са разработили и вече пуснали подобни езикови модели, ние предприемаме сдържан, внимателен подход с ИИ LaMDA, за да разгледаме по-добре обществените опасения относно обективност и фактулогия“, открито споделя говорителят на Гугъл Брайън Габриел пред медиите.

 

 

Вашият коментар

Вашият имейл адрес няма да бъде публикуван.