PL | EN

Technologia rozpoznawania twarzy i zagrożenia z nią związane

Technologia rozpoznawania twarzy używana do wyszukiwania osób w miejscach publicznych i stosowana przez policję w południowej Walii narusza prawo do prywatności – napisali we wniosku do sądu apelacyjnego w Wielkiej Brytanii prawnicy Liberty, organizacji broniącej praw obywatelskich. Argumentowali oni również, że system stosuje zasady dyskryminacji rasowej. Policja w południowej Walii zarejestrowała już dane biometryczne 500 tys. osób, z których przeważająca większość nie jest o nic podejrzana.

Amerykanin Robert Williams z Detroit jest pierwszą ujawnioną osobą, która została bezprawnie aresztowana z powodu błędnego rozpoznania twarzy przez oprogramowanie AI. Oprogramowanie zostało dostarczone przez firmę DataWorks Plus i było obsługiwane przez algorytmy japońskiej firmy technologicznej NEC oraz firmy Rank One Computing. Przepisy stosowane przez policję i dotyczące rozpoznawania twarzy podejrzanych są trudne do analizy i zależne od interpretacji funkcjonariuszy.

Systemy rozpoznawania twarzy są używane przez policję od ponad dwóch dekad. Według wyników najnowszych badań przeprowadzonych przez Massachusetts Institute of Technology i amerykański Narodowy Instytut Standaryzacji i Technologii (NIST) technologia rozpoznawania twarzy działa stosunkowo dobrze w przypadku białych mężczyzn, wyniki są jednak mniej dokładne dla innych profili demograficznych, częściowo z powodu zbyt małej różnorodności obrazów użytych do opracowania podstawowej bazy danych.

Naukowcy z Harrisburg University of Science and Technology twierdzą, że opracowane przez nich oprogramowanie „może przewidywać, czy ktoś jest przestępcą, na podstawie wyłącznie zdjęcia jego twarzy” i „ma na celu pomóc organom ścigania w zapobieganiu przestępczości”. Jednak 1700 badaczy innych uczelni jest przeciwko publikowaniu wyników tych badań, ponieważ oprogramowanie AI może kierować się uprzedzeniami rasowymi, płciowymi i ze względu na wiek.

Hej! Zainteresował Cię nasz Magazyn? Możesz otrzymywać go regularnie. Podaj swój adres e-mail, a co piątek trafi do Ciebie nasz przegląd istotnych i sprawdzonych informacji ze świata. Miłego czytania!
Naciskając „Zapisz się”, wyrażam zgodę na przesyłanie newslettera przez Outriders Sp. not-for-profit Sp. z o.o. i akceptuję regulamin.
Czytaj również
Sztuczna inteligencja a rasizm, bigoteria i szansa na równe traktowanie
Sztuczna inteligencja a rasizm, bigoteria i szansa na równe traktowanie
Dzięki naukowcom z Narodowego Robotarium, w skład którego wchodzą Heriot-Watt University i Uniwersytet Edynburski, opracowano zaawansowane algorytmy uczenia maszynowego, które znacznie poprawią wykrywanie przemocy w internecie – pomogą np. zwalczyć przemoc na tle płciowym oraz „wprowadzić pozytywne zmiany społeczne i kulturowe”. Zdaniem profesorki Vereny Rieser praca ta pozwoli stworzyć „przestrzeń online bezpieczną niezależnie od płci, […]
AI a przestępczość – przewidywanie i odpowiedzialność karna
AI a przestępczość – przewidywanie i odpowiedzialność karna
Algorytm komputerowy opracowany przez socjologów z Uniwersytetu Chicagowskiego prognozuje przestępczość w dużym mieście z 90-procentową dokładnością. Badacze wykorzystali dane historyczne dotyczące przestępstw z użyciem przemocy i przestępstw przeciwko mieniu w Chicago, a następnie podzielili miasto na kwadraty o powierzchni prawie 93 m2 każdy. Zastosowana przez nich metoda sprawdziła się również w Los Angeles, Filadelfii i […]
Nowoczesne protesty i technologia przeciw policji
Nowoczesne protesty i technologia przeciw policji
Uczestnicy protestów w Tajlandii wzorują się na taktyce, jaką wypracowali demonstranci w Hongkongu w 2019 r. Tajlandczycy korzystają z hongkońskich internetowych przewodników dotyczących manifestacji oraz aplikacji Telegram do porozumiewania się między sobą i organizowania kolejnych demonstracji przeciwko rządowi i monarchii. Działają nieprzewidywalnie, są pozbawieni przywódców i stosują tzw. strategię wody – gromadzą się szybko w różnych miejscach […]
Sztuczna inteligencja w samochodach stwarza zagrożenie dla osób o ciemniejszym kolorze skóry
Sztuczna inteligencja w samochodach stwarza zagrożenie dla osób o ciemniejszym kolorze skóry
Producenci samochodów autonomicznych muszą zmierzyć się z nowym wyzwaniem – systemy wizyjne maszyn słabiej radzą sobie z rozpoznawaniem przechodniów o ciemniejszym kolorze skóry. Z badań naukowców z Georgia Institute of Technology wynika, że sztuczna inteligencja rozpoznaje osoby białe o 10% skuteczniej niż osoby czarne. Im jaśniejszy kolor skóry przechodnia, tym systemy działają lepiej. Tę „technologiczną […]
Permanentna chińska inwigilacja
Permanentna chińska inwigilacja
Władze Chin kontrolują społeczeństwo dzięki technologii rozpoznawania twarzy. W całym kraju działa system nadzoru obejmujący ponad 170 mln kamer CCTV, które wykorzystują sztuczną inteligencję do identyfikacji ludzi, nawet gdy ich twarz jest zakryta. Od 1 grudnia 2019 r. operatorzy telekomunikacyjni będą skanować twarz każdego, kto ubiega się o dostęp do usług mobilnych i internetowych. Rozpoznawanie […]
Pozostałe wydania