Dalszy ciąg historii dotyczącej świadomości sztucznej inteligencji LaMDA. Inżynier poniósł konsekwencje

lamda

lamda

Niedawno informowaliśmy Was o pewnym odkryciu, jakiego dokonał inżynier pracujący w firmie Google. Według niego sztuczna inteligencja LaMDA, przy której pracował, zyskała świadomość. Tymi spostrzeżeniami podzielił się oczywiście ze swoim pracodawcą, który w odpowiedzi natychmiast wysłał go na przymusowy urlop. Niestety, na tym się nie skończyło. Historia ma swoją dalszą część.

Pracownik Google Blake Lemoine zwolniony

Dla przypomnienia Blake Lemoine to inżynier oprogramowania w firmie Alphabet Inc., który doszedł do wniosku, że system do budowania czatbotów LaMDA nagłe stał się świadomy. Co więcej, postanowił udowodnić swoją tezę, przeprowadzając wywiad z programem, zamieszczając jego zapis w sieci. Niestety, postępując w ten sposób, naruszył politykę prywatności Google. Przynajmniej tak uznał pracodawca, który początkowo wysłał go na odpoczynek. Finalnie sprawa zakończyła się na wypowiedzeniu umowy o pracę.

Informację przekazał sam zainteresowany w rozmowie z Big Technology. Poinformował w niej o decyzji Google odnośnie oddelegowania go na urlop za naruszenie umowy o zachowaniu poufności oraz o samym zwolnieniu. Patrząc na postępowanie inżyniera, raczej nie można było się spodziewać niczego innego. W końcu Blake posunął się nawet do zatrudnienia prawnika do reprezentowania LaMDA.

Google potwierdza informację

Oświadczenie wysłane e-mailem do The Verge przez rzecznika Google Briana Gabriela potwierdziło, że faktycznie doszło do zwolnienia. Firma odniosła się także do tezy, która przecież była głównym powodem całego zamieszania. Z pisma wynika, że została ona wnikliwie zbadana i nie może być prawdziwa. Potwierdzają to także inni specjaliści w dziedzinie AI, którzy twierdzą, że obecna technologia nie pozwala na uzyskanie świadomości na żadnym etapie.

Pełne oświadczenie Google możecie przeczytać poniżej:

LaMDA przeszło 11 odrębnych analiz, a na początku tego roku opublikowaliśmy artykuł badawczy, w którym szczegółowo opisano prace związane z jego odpowiedzialnym rozwojem. Jeśli jednak dostajemy sygnał, że pracownik ma jakiekolwiek obawy dotyczące naszej pracy, tak jak zrobił to Blake, dokładnie go analizujemy. Odpowiadając na twierdzenia Blake’a, że ​​LaMDA ma świadomość, uznajemy je za całkowicie bezpodstawne. Pracowaliśmy nad ich wyjaśnieniem wraz z nim przez wiele miesięcy. Dyskusje te były częścią otwartej kultury, która pomaga nam wprowadzać innowacje w sposób odpowiedzialny. Szkoda więc, że pomimo długiego zaangażowania w ten temat, Blake nadal zdecydował się uporczywie naruszać jasne zasady dotyczące zatrudnienia i bezpieczeństwa danych, które obejmują potrzebę ochrony informacji o produktach. Będziemy kontynuować staranny rozwój modeli językowych, przy okazji życzymy Blake’owi wszystkiego najlepszego.

Czytamy w oświadczeniu Google
Exit mobile version