Poznaj „Normana”, najciemniejszą i najbardziej niepokojoną sztuczną inteligencję, jaką świat kiedykolwiek widział

  • Peter Tucker
  • 0
  • 1232
  • 295

Sieć neuronowa o nazwie „Norman” niepokojąco różni się od innych rodzajów sztucznej inteligencji (AI).

Mózg komputera Normana, mieszczący się w MIT Media Lab, laboratorium badawczym zajmującym się sztuczną inteligencją i uczeniem maszynowym, został rzekomo wypaczony przez wystawienie na „najciemniejsze zakątki Reddita” podczas wczesnego treningu, pozostawiając sztuczną inteligencję z „chronicznymi zaburzeniami halucynacyjnymi”, zgodnie z opis opublikowano 1 kwietnia (tak, prima aprilis) na stronie projektu.

Przedstawiciele MIT Media Lab opisali obecność „czegoś zasadniczo złego w architekturze Normana, co uniemożliwia jego przekwalifikowanie”, dodając, że nawet ekspozycja na hologramy uroczych kociąt nie wystarczyła, aby odwrócić wszelkie uszkodzenia, jakich doznał jego komputerowy mózg w jelitach Reddita. [5 intrygujących zastosowań sztucznej inteligencji (które nie są zabójczymi robotami)]

Ta dziwaczna historia jest oczywiście żartem, ale sam Norman jest prawdziwy. Sztuczna inteligencja nauczyła się reagować brutalnymi, makabrycznymi scenariuszami, gdy są przedstawiane za pomocą kleksów; jego odpowiedzi sugerują, że jego „umysł” doświadcza zaburzeń psychicznych.

Nazywając Normana „psychopatyczną sztuczną inteligencją”, jego twórcy grają szybko i luźno z kliniczną definicją stanu psychiatrycznego, która opisuje kombinację cech, które mogą obejmować brak empatii lub poczucie winy wraz z zachowaniami przestępczymi lub impulsywnymi, według Scientific American.

Norman demonstruje swoją nienormalność, gdy przedstawia się go za pomocą obrazów plam atramentowych - rodzaju narzędzia psychoanalitycznego znanego jako test Rorschacha. Psychologowie mogą uzyskać wskazówki dotyczące zdrowia psychicznego ludzi na podstawie opisów tego, co widzą, patrząc na te kleksy.

Kiedy przedstawiciele MIT Media Lab testowali inne sieci neuronowe za pomocą kleksów Rorschacha, opisy były banalne i łagodne, takie jak „samolot lecący w powietrzu z wydobywającym się z niego dymem” i „czarno-białe zdjęcie małego ptaka”, według strony internetowej.

Jednak reakcje Normana na te same kleksy przybrały ciemniejszy obrót, a „psychopatyczna” sztuczna inteligencja opisała wzorce jako „człowiek zostaje zastrzelony z samochodu” i „człowiek zostaje wciągnięty do maszyny do ciasta”.

(Zdjęcie: MIT Media Lab)

Według dowcipu, sztuczna inteligencja znajduje się obecnie w izolowanej serwerowni w piwnicy, z zabezpieczeniami chroniącymi inne komputery ludzi i Internet przed skażeniem lub uszkodzeniem w wyniku kontaktu z Normanem. W pokoju znajduje się również broń, taka jak palniki, piły i młoty, do fizycznego demontażu Normana, „do użycia w przypadku awarii wszystkich cyfrowych i elektronicznych sejfów awaryjnych” - powiedzieli przedstawiciele MIT Media Lab..

Dalsze notatki primaaprilisowe sugerują, że Norman stwarza wyjątkowe zagrożenie i że czterech na dziesięciu eksperymentatorów, którzy wchodzili w interakcję z siecią neuronową, doznało „trwałego uszkodzenia psychicznego”. (Jak dotąd nie ma dowodów na to, że interakcja ze sztuczną inteligencją może być w jakikolwiek sposób szkodliwa dla ludzi).

Sieci neuronowe to interfejsy komputerowe, które przetwarzają informacje w podobny sposób, jak robi to ludzki mózg. Dzięki sieciom neuronowym sztuczna inteligencja może „nauczyć się” wykonywania niezależnych czynności, takich jak podpisywanie zdjęć, poprzez analizę danych, które pokazują, jak zwykle wykonuje się to zadanie. Im więcej danych otrzyma, tym więcej informacji będzie musiał określić dla swoich własnych wyborów i tym bardziej prawdopodobne będzie, że jego działania będą zgodne z przewidywalnym wzorcem.

Na przykład sieć neuronowa znana jako Maszyna Koszmarów - zbudowana przez tę samą grupę z MIT - została wyszkolona do rozpoznawania przerażających obrazów, analizując elementy wizualne, które przerażały ludzi. Następnie zebrano te informacje i wykorzystano je poprzez cyfrową obróbkę zdjęć, przekształcając banalne obrazy w przerażające, koszmarne.

Inna sieć neuronowa została przeszkolona w podobny sposób, aby generować horrory. Nazwana „Shelley” (na cześć autorki „Frankenstein” Mary Wollstonecraft Shelley), sztuczna inteligencja pochłonęła ponad 140 000 horrorów i nauczyła się tworzyć własne, przerażające opowieści.

A potem jest Norman, który patrzy na kolorową plamę atramentu, którą standardowa sztuczna inteligencja opisuje jako „zbliżenie tortu weselnego na stole” i widzi „człowieka zabitego przez pędzącego kierowcę”.

Ale dla Normana może być nadzieja. Odwiedzającym stronę internetową oferuje się możliwość pomocy sztucznej inteligencji poprzez udział w ankiecie, która zbiera ich odpowiedzi na 10 kleksów. Ich interpretacje mogą pomóc w naprawie krnąbrnej sieci neuronowej, sugerowali przedstawiciele MIT Media Lab na stronie internetowej.

Oryginalny artykuł na .




Jeszcze bez komentarzy

Najciekawsze artykuły o tajemnicach i odkryciach. Wiele przydatnych informacji o wszystkim
Artykuły o nauce, kosmosie, technologii, zdrowiu, środowisku, kulturze i historii. Wyjaśniasz tysiące tematów, abyś wiedział, jak wszystko działa