Laboratorium „Killer Robot” stoi w obliczu bojkotu ze strony ekspertów od sztucznej inteligencji

  • Vlad Krasen
  • 0
  • 4945
  • 1357

Społeczność sztucznej inteligencji (AI) ma jasny przekaz dla badaczy w Korei Południowej: nie rób zabójczych robotów.

Prawie 60 ekspertów zajmujących się sztuczną inteligencją i robotyką z prawie 30 krajów podpisało list otwarty wzywający do bojkotu KAIST, publicznego uniwersytetu w Daejeon w Korei Południowej, o którym doniesiono, że „opracowuje [i] technologie sztucznej inteligencji do zastosowania w wojsku broni, przyłączając się do globalnej rywalizacji o rozwój autonomicznej broni ”- czytamy w liście otwartym.

Innymi słowy, KAIST może badać, jak zrobić broń AI klasy wojskowej. [5 powodów, by bać się robotów]

Zgodnie z listem otwartym, eksperci AI na całym świecie zaniepokoili się, gdy dowiedzieli się, że KAIST - we współpracy z Hanwha Systems, wiodącą firmą zbrojeniową Korei Południowej - otworzył 20 lutego nowy obiekt zwany Centrum Badań Konwergencji Obrony Narodowej i Sztuczna inteligencja.

Biorąc pod uwagę, że Organizacja Narodów Zjednoczonych (ONZ) już dyskutuje, jak chronić społeczność międzynarodową przed zabójczymi robotami AI, „szkoda, że ​​tak prestiżowa instytucja jak KAIST chce przyspieszyć wyścig zbrojeń w celu opracowania takiej broni” - napisali w liście naukowcy..

Aby zdecydowanie zniechęcić do nowej misji KAIST, naukowcy bojkotują uniwersytet do czasu, gdy jego prezydent wyjaśni, że centrum nie opracuje „autonomicznej broni pozbawionej znaczącej ludzkiej kontroli” - powiedzieli autorzy listu..

Bojkot będzie obejmował wszystko. „Na przykład nie będziemy odwiedzać KAIST, przyjmować gości z KAIST ani brać udziału w jakimkolwiek projekcie badawczym z udziałem KAIST” - powiedzieli naukowcy.

Jeśli KAIST będzie kontynuował rozwój autonomicznej broni, może to doprowadzić do trzeciej rewolucji w działaniach wojennych - stwierdzili naukowcy. Broń ta „ma potencjał, by stać się bronią terroru”, a jej rozwój może zachęcić do szybszej i na większą skalę prowadzenia wojny..

Despoci i terroryści, którzy zdobędą tę broń, mogą jej użyć przeciwko niewinnym populacjom, usuwając wszelkie etyczne ograniczenia, z którymi mogą się spotkać zwykli bojownicy - dodali naukowcy..

Taki zakaz zabójczych technologii nie jest nowy. Na przykład Konwencje Genewskie zakazują siłom zbrojnym używania oślepiającej broni laserowej bezpośrednio przeciwko ludziom, o czym informowano wcześniej. Ponadto środki nerwowe, takie jak sarin i VX, są zakazane przez Konwencję o broni chemicznej, w której uczestniczy ponad 190 krajów.

Jednak nie każdy kraj zgadza się na takie ogólne zabezpieczenia. Hanwha, firma współpracująca z KAIST, pomaga w produkcji amunicji kasetowej. Taka amunicja jest zabroniona na mocy Konwencji ONZ o amunicji kasetowej, a ponad 100 krajów (choć nie Korea Południowa) podpisało przeciwko niej konwencję, powiedzieli naukowcy..

Hanwha spotkała się z konsekwencjami swoich działań; z powodów etycznych norweski fundusz emerytalny o wartości 380 miliardów dolarów nie inwestuje w akcje Hanhwa - stwierdzili naukowcy..

Zamiast pracować nad autonomicznymi technologiami zabijania, KAIST powinien pracować na urządzeniach sztucznej inteligencji, które poprawiają, a nie szkodzą, ludzkie życie - stwierdzili naukowcy..

W międzyczasie inni badacze od lat ostrzegali przed zabójczymi robotami AI, w tym Elon Musk i nieżyjący już Stephen Hawking.

Oryginalny artykuł na .




Jeszcze bez komentarzy

Najciekawsze artykuły o tajemnicach i odkryciach. Wiele przydatnych informacji o wszystkim
Artykuły o nauce, kosmosie, technologii, zdrowiu, środowisku, kulturze i historii. Wyjaśniasz tysiące tematów, abyś wiedział, jak wszystko działa