Alexandria Ocasio-Cortez mówi, że algorytmy mogą być rasistowskie. Oto dlaczego ona ma rację.

  • Joseph Norman
  • 0
  • 3428
  • 680

W zeszłym tygodniu nowo wybrana reprezentantka USA Alexandria Ocasio-Cortez trafiła na pierwsze strony gazet, gdy w ramach czwartego dorocznego wydarzenia MLK Now powiedziała, że ​​technologie i algorytmy rozpoznawania twarzy „zawsze mają te rasowe nierówności, które są tłumaczone, ponieważ algorytmy wciąż są tworzone przez ludzi, a te algorytmy są nadal powiązane z podstawowymi ludzkimi założeniami. Są po prostu zautomatyzowane. I zautomatyzowane założenia - jeśli nie naprawisz błędu, po prostu zautomatyzujesz błąd. "

Czy to oznacza, że ​​algorytmy, które są teoretycznie oparte na obiektywnych prawdach matematycznych, mogą być „rasistowskie”? A jeśli tak, co można zrobić, aby usunąć to uprzedzenia? [11 najpiękniejszych równań matematycznych]

Okazuje się, że dane wyjściowe algorytmów mogą rzeczywiście dawać tendencyjne wyniki. Naukowcy zajmujący się danymi twierdzą, że programy komputerowe, sieci neuronowe, algorytmy uczenia maszynowego i sztuczna inteligencja (AI) działają, ponieważ uczą się, jak zachowywać się na podstawie otrzymanych danych. Oprogramowanie jest tworzone przez ludzi, którzy mają uprzedzenia, a dane treningowe są również generowane przez ludzi, którzy mają uprzedzenia.

Dwa etapy uczenia maszynowego pokazują, jak to nastawienie może wkraść się w pozornie zautomatyzowany proces. W pierwszym etapie, czyli szkoleniu, algorytm uczy się na podstawie zbioru danych lub na określonych zasadach lub ograniczeniach. Drugi etap to etap wnioskowania, w którym algorytm stosuje to, czego nauczył się w praktyce. Ten drugi etap ujawnia błędy algorytmu. Na przykład, jeśli algorytm zostanie przeszkolony przy użyciu zdjęć tylko kobiet, które mają długie włosy, to uzna, że ​​każdy z krótkimi włosami jest mężczyzną.

Google niesławnie znalazł się pod ostrzałem w 2015 roku, kiedy Zdjęcia Google oznaczyły czarnych ludzi jako goryle, prawdopodobnie dlatego, że były to jedyne ciemnoskóre istoty w zestawie treningowym.

A stronniczość może wkradać się na wiele sposobów. „Częstym błędem jest uczenie algorytmu przewidywania na podstawie wcześniejszych decyzji stronniczych ludzi” - powiedziała Sophie Searcy, starszy analityk danych z obozu szkoleniowego Metis. „Jeśli utworzę algorytm automatyzujący decyzje podejmowane wcześniej przez grupę urzędników ds. Pożyczek, mógłbym pójść na łatwiznę i przeszkolić algorytm w zakresie wcześniejszych decyzji tych urzędników. Ale wtedy, oczywiście, gdyby ci urzędnicy byli stronniczy, wtedy algorytm, który utworzę, będzie kontynuował te uprzedzenia ”.

Searcy przytoczył przykład COMPAS, narzędzia predykcyjnego używanego w amerykańskim systemie wymiaru sprawiedliwości do wydawania wyroków, które próbuje przewidzieć miejsce przestępstwa. Firma ProPublica przeprowadziła analizę COMPAS i stwierdziła, że ​​po sprawdzeniu innych wyjaśnień statystycznych narzędzie przeszacowało ryzyko recydywy dla oskarżonych czarnych i konsekwentnie zaniżało ryzyko dla oskarżonych białych.

Searcy powiedział, że aby pomóc w zwalczaniu błędów algorytmicznych, inżynierowie i naukowcy zajmujący się danymi powinni tworzyć bardziej zróżnicowane zestawy danych dla nowych problemów, a także próbować zrozumieć i złagodzić uprzedzenia wbudowane w istniejące zestawy danych..

Przede wszystkim, powiedział Ira Cohen, analityk danych w firmie Anodot zajmującej się analizami predykcyjnymi, inżynierowie powinni mieć zestaw szkoleniowy z relatywnie jednolitą reprezentacją wszystkich typów populacji, jeśli uczą algorytm do identyfikacji atrybutów etnicznych lub płciowych. „Ważne jest, aby przedstawić wystarczającą liczbę przykładów z każdej grupy populacji, nawet jeśli stanowią one mniejszość w całej badanej populacji” - powiedział Cohen. Wreszcie Cohen zaleca sprawdzenie uprzedzeń na zestawie testowym obejmującym osoby ze wszystkich tych grup. „Jeśli dla pewnej rasy dokładność jest statystycznie znacznie niższa niż w przypadku innych kategorii, algorytm może mieć odchylenie i oceniłbym dane treningowe, które zostały do ​​tego wykorzystane” - powiedział Cohen LiveScience. Na przykład, jeśli algorytm może poprawnie zidentyfikować 900 z 1000 białych twarzy, ale poprawnie wykryje tylko 600 z 1000 azjatyckich twarzy, to algorytm może mieć nastawienie „przeciwko” Azjatom, dodał Cohen..

Usunięcie uprzedzeń może być niezwykle trudne dla sztucznej inteligencji.

Nawet Google, uważany za prekursora komercyjnej sztucznej inteligencji, najwyraźniej nie mógł znaleźć kompleksowego rozwiązania swojego problemu z gorylami od 2015 roku. Wired odkrył, że zamiast znaleźć sposób na rozróżnienie ludzi kolorowych od goryli, Google po prostu zablokował jego algorytmy rozpoznawania obrazu w ogóle identyfikują goryle.

Przykład Google dobrze przypomina, że ​​szkolenie oprogramowania AI może być trudnym ćwiczeniem, zwłaszcza gdy oprogramowanie nie jest testowane ani szkolone przez reprezentatywną i zróżnicowaną grupę osób.

  • Sztuczna inteligencja: przyjazna lub przerażająca?
  • Super-inteligentne maszyny: 7 robotów przyszłości
  • 10 szalonych nowych umiejętności, które roboty zdobyły w 2018 roku

Pierwotnie opublikowano w dniu .




Jeszcze bez komentarzy

Najciekawsze artykuły o tajemnicach i odkryciach. Wiele przydatnych informacji o wszystkim
Artykuły o nauce, kosmosie, technologii, zdrowiu, środowisku, kulturze i historii. Wyjaśniasz tysiące tematów, abyś wiedział, jak wszystko działa