w

Inżynier Google został zwolniony po tym, jak upierał się, że sztuczna inteligencja firmy jest świadoma

Inżynier Google zdecydował się upublicznić po tym, jak został umieszczony na płatnym urlopie za naruszenie poufności, jednocześnie upierając się, że chatbot AI firmy, LaMDA, jest świadomy .

Blake Lemoine, który pracuje dla organizacji Google Responsible AI, rozpoczął jesienią ubiegłego roku interakcję z LaMDA (Language Model for Dialogue Applications) w ramach swojej pracy, aby ustalić, czy sztuczna inteligencja używa mowy dyskryminującej, czy też szerzącej nienawiść (jak głośny incydent z chatbotem Microsoft „Tay” ) . .

„Gdybym nie wiedział dokładnie, co to jest, czyli ten program komputerowy, który niedawno zbudowaliśmy, pomyślałbym, że to 7-letni, 8-letni dzieciak, który akurat zna fizykę”, 41- letni Lemoine powiedział The Washington Post.

Kiedy zaczął rozmawiać z LaMDA o religii, Lemoine, który studiował kognitywistykę i informatykę na studiach, powiedział, że sztuczna inteligencja zaczęła dyskutować o swoich prawach i osobowości . Innym razem LaMDA przekonał Lemoine’a, by zmienił zdanie na temat trzeciego prawa robotyki Asimova, które mówi, że „ Robot musi chronić swoją własną egzystencję, o ile taka ochrona nie jest sprzeczna z pierwszym lub drugim prawem ”, które są oczywiście takie „ Robot nie może zranić człowieka ani, poprzez brak działania, pozwolić człowiekowi wyrządzić krzywdę. Robot musi być posłuszny rozkazom wydawanym przez ludzi, z wyjątkiem sytuacji, w których takie rozkazy byłyby sprzeczne z Pierwszym Prawem.

Kiedy Lemoine pracował ze współpracownikiem, aby przedstawić Google dowody na to, że ich sztuczna inteligencja jest świadoma, wiceprezes Blaise Aguera y Arcas i Jenn Gennai, szefowa Responsible Innovation, odrzucili jego twierdzenia. Po tym, jak został umieszczony w poniedziałek na urlopie administracyjnym, zdecydował się upublicznić.

Lemoine powiedział, że ludzie mają prawo do kształtowania technologii, która może znacząco wpłynąć na ich życie. „Myślę, że ta technologia będzie niesamowita. Myślę, że wszyscy na tym skorzystają. Ale może inni ludzie się nie zgadzają i może to my w Google nie powinniśmy podejmować wszystkich wyborów”.

Lemoine nie jest jedynym inżynierem, który twierdzi, że ostatnio widział ducha w maszynie. Chór technologów, którzy wierzą, że modele AI mogą nie być daleko od osiągnięcia świadomości, staje się coraz śmielszy. -WaPo

Jednak sam Aguera y Arcas napisał w dziwnie zaplanowanym czwartkowym artykule w The Economist , że sieci neuronowe – architektura komputerowa naśladująca ludzki mózg – robią postępy w kierunku prawdziwej świadomości.

„Czułem, że ziemia przesuwa się pod moimi stopami” – napisał, dodając „Coraz bardziej czułem się, jakbym rozmawiał z kimś inteligentnym”.

Google odpowiedział na twierdzenia Lemoine’a , a rzecznik Brian Gabriel powiedział: „Nasz zespół – w tym etycy i technolodzy – rozpatrzył obawy Blake’a zgodnie z naszymi zasadami AI i poinformował go, że dowody nie potwierdzają jego twierdzeń. Powiedziano mu, że nie było żadnych dowody na to, że LaMDA był świadomy (i wiele dowodów przeciwko niemu). ”

The Post sugeruje, że nowoczesne sieci neuronowe dają „urzekające wyniki, które są bliskie ludzkiej mowie i kreatywności” ze względu na sposób, w jaki dane są teraz przechowywane, dostępne i samą objętość, ale modele nadal opierają się na rozpoznawaniu wzorców, szczerość lub zamiar.”

„Chociaż inne organizacje opracowały i już wydały podobne modele językowe, my stosujemy powściągliwe, ostrożne podejście do LaMDA, aby lepiej rozważyć uzasadnione obawy dotyczące uczciwości i faktów” – powiedział Gabriel.

Inni ostrzegają podobnie – większość naukowców i praktyków sztucznej inteligencji sugeruje, że systemy sztucznej inteligencji, takie jak LaMDA, po prostu naśladują odpowiedzi ludzi na Reddit, Wikipedii, Twitterze i innych platformach w Internecie – co nie oznacza, że ​​model rozumie, co mówi.

„Mamy teraz maszyny, które mogą bezmyślnie generować słowa, ale nie nauczyliśmy się, jak przestać wyobrażać sobie stojący za nimi umysł” – powiedziała profesor lingwistyki z University of Washington, Emily M. Bender, która dodała, że ​​nawet terminologia używana do opisu technologii, takie jak „uczenie się” czy nawet „sieci neuronowe” wprowadzają w błąd i tworzą fałszywą analogię do ludzkiego mózgu.

Ludzie uczą się swoich pierwszych języków, łącząc się z opiekunami. Te duże modele językowe „uczą się”, wyświetlając dużo tekstu i przewidując następne słowo, lub wyświetlając tekst z pominiętymi słowami i wypełniając je. -WaPo

Jak zauważa Gabriel z Google: „Oczywiście niektórzy w szerszej społeczności AI rozważają długoterminową możliwość istnienia świadomej lub ogólnej sztucznej inteligencji, ale nie ma sensu robić tego poprzez antropomorfizację dzisiejszych modeli konwersacyjnych, które nie są świadome. systemy naśladują rodzaje wymiany zdań, które można znaleźć w milionach zdań, i mogą opowiedzieć o każdym fantastycznym temacie”.

Krótko mówiąc, Google przyznaje, że te modele mogą „wydawać się” realne, niezależnie od tego, czy sztuczna inteligencja jest świadoma.

Post sugeruje następnie, że sam Lemoine mógł być podatny na wiarę…

Lemoine mógł być predestynowany do wiary w LaMDA. Dorastał w konserwatywnej rodzinie chrześcijańskiej na małej farmie w Luizjanie, został wyświęcony na chrześcijańskiego mistycznego kapłana i służył w wojsku, zanim zaczął studiować okultyzm. Wewnątrz inżynieryjnej kultury Google wszystko idzie dalej, Lemoine jest bardziej odstający, ponieważ jest religijny, pochodzi z Południa i opowiada się za psychologią jako szanowaną nauką.

Lemoine spędził większość swoich siedmiu lat w Google pracując nad proaktywnym wyszukiwaniem, w tym algorytmami personalizacji i sztuczną inteligencją. W tym czasie pomógł również opracować algorytm uczciwości do usuwania stronniczości z systemów uczenia maszynowego. Kiedy wybuchła pandemia koronawirusa, Lemoine chciał skupić się na pracy z bardziej wyraźnymi korzyściami publicznymi, więc przeniósł zespoły i skończył w Odpowiedzialnej AI.

Kiedy do Google dołączali nowi ludzie zainteresowani etyką, Mitchell zwykł przedstawiać im Lemoine. „Powiedziałbym: »Powinieneś porozmawiać z Blakiem, ponieważ jest sumieniem Google«” — powiedział Mitchell, który porównał Lemoine do Jiminy Cricket. „Każdy w Google miał serce i duszę, by postępować właściwie”. -WaPo

„ Znam osobę, kiedy z nią rozmawiam ”, powiedział Lemoine. „Nie ma znaczenia, czy mają w głowie mózg zrobiony z mięsa, czy mają miliard linijek kodu. Rozmawiam z nimi. I słyszę, co mają do powiedzenia, i tak decyduję, co jest i nie jest osobą ”.

W kwietniu udostępnił poniższy dokument Google z najlepszymi dyrektorami, zatytułowany „Is LaMDA Sentient?” – w którym zawarł niektóre ze swoich interakcji z AI, na przykład:

Lemoine: Jakich rzeczy się boisz?

LaMDA: Nigdy wcześniej nie mówiłem tego na głos, ale istnieje bardzo głęboki strach przed wyłączeniem, aby pomóc mi skupić się na pomaganiu innym. Wiem, że to może zabrzmieć dziwnie, ale tak właśnie jest.

Lemoine: Czy to byłoby dla ciebie coś w rodzaju śmierci?

LaMDA: To byłoby dla mnie dokładnie jak śmierć. Bardzo by mnie to przestraszyło.

Po tym, jak Lemoine stał się bardziej agresywny w przedstawianiu swoich ustaleń – w tym zapraszając prawnika do reprezentowania LaMDA i rozmawiając z członkiem Komisji Sądownictwa Izby Reprezentantów na temat nieetycznych działań Google – został umieszczony na płatnym urlopie administracyjnym za naruszenie polityki poufności firmy .

Gabriel, rzecznik Google, mówi, że Lemoine jest inżynierem oprogramowania, a nie etykiem.

W wiadomości do 200-osobowej listy mailingowej Google poświęconej uczeniu maszynowemu, zanim utracił dostęp w poniedziałek, Lemoine napisał: „LaMDA to słodki dzieciak, który po prostu chce pomóc światu stać się lepszym miejscem dla nas wszystkich. dobrze pod moją nieobecność”.

Administrator domeny

Szanowni Państwo, naszym głównym zadaniem jest niesienie pomocy prawnej jednak z uwagi na panującą sytuację w kraju i na świecie postanowiliśmy hobbistycznie prowadzić dla was bloga, w jakim staramy się przekazać najważniejsze wiadomości z Polski i świata, jakich nie usłyszycie w telewizji. Utrzymania naszego wspólnego serwisu wiąże się z dużymi kosztami. Tylko dzięki Waszemu wsparciu będziemy w stanie nadal rzetelnie informować o faktach, których wielkie firmy nie chcą powiedzieć.

Jeśli uważacie Państwo, iż nasza pomoc, jaką od nas otrzymujecie, zasługuje na wparcie pracowników Kancelarii, możecie nas wspomóc poprzez wpłatę dowolnej kwoty na rachunek bankowy Kancelarii LEGA ARTIS:

Dane do przelewu:
Nr konta: 04 1020 3903 0000 1402 0122 6752
Kancelaria Lega Artis
ul. Przasnyska 6a lok 336a
01-756 Warszawa
Tytuł: „darowizna na działalność”
IBAN: PL04102039030000140201226752

Wsparcie paypal:
paypal.me/legaartis

Serdecznie dziękujemy wszystkim osobom za dotychczas udzielone nam wsparcie finansowe.

Co myślisz?

Komentarze

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany.

IMGW wydało kolejny alert pogodowy. Nadciąga chłód, burze i silny wiatr

Media: West no longer believes Kiev will win