- Vlad Krasen
- 0
- 4945
- 1357
Społeczność sztucznej inteligencji (AI) ma jasny przekaz dla badaczy w Korei Południowej: nie rób zabójczych robotów.
Prawie 60 ekspertów zajmujących się sztuczną inteligencją i robotyką z prawie 30 krajów podpisało list otwarty wzywający do bojkotu KAIST, publicznego uniwersytetu w Daejeon w Korei Południowej, o którym doniesiono, że „opracowuje [i] technologie sztucznej inteligencji do zastosowania w wojsku broni, przyłączając się do globalnej rywalizacji o rozwój autonomicznej broni ”- czytamy w liście otwartym.
Innymi słowy, KAIST może badać, jak zrobić broń AI klasy wojskowej. [5 powodów, by bać się robotów]
Zgodnie z listem otwartym, eksperci AI na całym świecie zaniepokoili się, gdy dowiedzieli się, że KAIST - we współpracy z Hanwha Systems, wiodącą firmą zbrojeniową Korei Południowej - otworzył 20 lutego nowy obiekt zwany Centrum Badań Konwergencji Obrony Narodowej i Sztuczna inteligencja.
Biorąc pod uwagę, że Organizacja Narodów Zjednoczonych (ONZ) już dyskutuje, jak chronić społeczność międzynarodową przed zabójczymi robotami AI, „szkoda, że tak prestiżowa instytucja jak KAIST chce przyspieszyć wyścig zbrojeń w celu opracowania takiej broni” - napisali w liście naukowcy..
Aby zdecydowanie zniechęcić do nowej misji KAIST, naukowcy bojkotują uniwersytet do czasu, gdy jego prezydent wyjaśni, że centrum nie opracuje „autonomicznej broni pozbawionej znaczącej ludzkiej kontroli” - powiedzieli autorzy listu..
Bojkot będzie obejmował wszystko. „Na przykład nie będziemy odwiedzać KAIST, przyjmować gości z KAIST ani brać udziału w jakimkolwiek projekcie badawczym z udziałem KAIST” - powiedzieli naukowcy.
Jeśli KAIST będzie kontynuował rozwój autonomicznej broni, może to doprowadzić do trzeciej rewolucji w działaniach wojennych - stwierdzili naukowcy. Broń ta „ma potencjał, by stać się bronią terroru”, a jej rozwój może zachęcić do szybszej i na większą skalę prowadzenia wojny..
Despoci i terroryści, którzy zdobędą tę broń, mogą jej użyć przeciwko niewinnym populacjom, usuwając wszelkie etyczne ograniczenia, z którymi mogą się spotkać zwykli bojownicy - dodali naukowcy..
Taki zakaz zabójczych technologii nie jest nowy. Na przykład Konwencje Genewskie zakazują siłom zbrojnym używania oślepiającej broni laserowej bezpośrednio przeciwko ludziom, o czym informowano wcześniej. Ponadto środki nerwowe, takie jak sarin i VX, są zakazane przez Konwencję o broni chemicznej, w której uczestniczy ponad 190 krajów.
Jednak nie każdy kraj zgadza się na takie ogólne zabezpieczenia. Hanwha, firma współpracująca z KAIST, pomaga w produkcji amunicji kasetowej. Taka amunicja jest zabroniona na mocy Konwencji ONZ o amunicji kasetowej, a ponad 100 krajów (choć nie Korea Południowa) podpisało przeciwko niej konwencję, powiedzieli naukowcy..
Hanwha spotkała się z konsekwencjami swoich działań; z powodów etycznych norweski fundusz emerytalny o wartości 380 miliardów dolarów nie inwestuje w akcje Hanhwa - stwierdzili naukowcy..
Zamiast pracować nad autonomicznymi technologiami zabijania, KAIST powinien pracować na urządzeniach sztucznej inteligencji, które poprawiają, a nie szkodzą, ludzkie życie - stwierdzili naukowcy..
W międzyczasie inni badacze od lat ostrzegali przed zabójczymi robotami AI, w tym Elon Musk i nieżyjący już Stephen Hawking.
Oryginalny artykuł na .