PL | EN

AI a przestępczość – przewidywanie i odpowiedzialność karna

Algorytm komputerowy opracowany przez socjologów z Uniwersytetu Chicagowskiego prognozuje przestępczość w dużym mieście z 90-procentową dokładnością. Badacze wykorzystali dane historyczne dotyczące przestępstw z użyciem przemocy i przestępstw przeciwko mieniu w Chicago, a następnie podzielili miasto na kwadraty o powierzchni prawie 93 m2 każdy. Zastosowana przez nich metoda sprawdziła się również w Los Angeles, Filadelfii i Atlancie.

Przepisy prawa nie regulują kwestii odpowiedzialności sztucznej inteligencji za popełnione przestępstwo. Dlatego użytkownicy końcowi AI – np. kierowcy czy lekarze – mogą unikać korzystania z niej, jeśli odpowiedzialność za potencjalnie śmiertelne błędy poniosą wyłącznie oni. Wkrótce sąd w Kalifornii ma wydać wyrok w sprawie wypadku, w którym zginęły dwie osoby, a oskarżony jechał samochodem marki Tesla, wyposażonym w system jazdy AI. Amerykański Urząd ds. Bezpieczeństwa Ruchu Drogowego (NHTSA) bada wypadki tesli, także pod kątem interakcji między systemami auta a człowiekiem. 

Według raportu National Endowment for Democracy (NED), analizującego trendy w inwigilacji przy użyciu sztucznej inteligencji, coraz więcej kamer działa w coraz większej liczbie miejsc przy niewielkim nadzorze w kwestii nadużywania nowych możliwości. Technologie monitoringu i rozpoznawania twarzy stosują np. departamenty policji w USA, władze Chin, Indii, Pakistanu oraz serbskiego Belgradu. Systemy służą nie tylko do walki z przestępczością, lecz także do monitorowania ruchu w internecie, protestów społecznych oraz uboższych, często zamieszkanych przez imigrantów dzielnic.

Hej! Zainteresował Cię nasz Magazyn? Możesz otrzymywać go regularnie. Podaj swój adres e-mail, a co piątek trafi do Ciebie nasz przegląd istotnych i sprawdzonych informacji ze świata. Miłego czytania!
Naciskając „Zapisz się”, wyrażam zgodę na przesyłanie newslettera przez Outriders Sp. not-for-profit Sp. z o.o. i akceptuję regulamin.
Czytaj również
Kontrowersje dotyczące systemów rozpoznawania twarzy
Kontrowersje dotyczące systemów rozpoznawania twarzy
System rozpoznawania twarzy jest stosowany przez władze stanowe na Florydzie od prawie 20 lat. Korzysta się z niego ok. 4600 razy w miesiącu. Pracownicy podkreślają, że program zawodzi, gdy zdjęcia podejrzanych są słabej jakości. Badanie z 2016 r. wykazało, że połowa dorosłych Amerykanów trafiła już do bazy danych systemów rozpoznawania twarzy organów ścigania w Stanach […]
Zastosowanie AI w edukacji i medycynie
Zastosowanie AI w edukacji i medycynie
Zdaniem ekspertów z m.in. Centre for Cardiovascular Science na Uniwersytecie w Edynburgu sztuczna inteligencja może znacznie poprawić trafność diagnoz zawału serca i zmniejszyć obciążenie na oddziałach ratunkowych. W porównaniu z obecnymi metodami testowania oparty na AI algorytm o nazwie CoDE-ACS potrafi wykluczyć zawał serca u ponad dwukrotnie większej liczby pacjentów z dokładnością 99,6%. Algorytm może […]
Szkoła w dobie AI – zagrożenia i rozwiązania
Szkoła w dobie AI – zagrożenia i rozwiązania
W ramach singapurskiej strategii „Smart Nation” sztuczna inteligencja ma pomagać nauczycielom i doskonalić proces edukacji uczniów, szczególnie tych ze specjalnymi potrzebami. AI zapewni także zautomatyzowane systemy oceniania i uczenia maszynowego, aby każdy uczeń jak najlepiej reagował na materiały i działania prowadzone w klasie. Korea Południowa wdrożyła systemy oparte na AI, by dostosować prace domowe i […]
Technologia rozpoznawania twarzy i zagrożenia z nią związane
Technologia rozpoznawania twarzy i zagrożenia z nią związane
Technologia rozpoznawania twarzy używana do wyszukiwania osób w miejscach publicznych i stosowana przez policję w południowej Walii narusza prawo do prywatności – napisali we wniosku do sądu apelacyjnego w Wielkiej Brytanii prawnicy Liberty, organizacji broniącej praw obywatelskich. Argumentowali oni również, że system stosuje zasady dyskryminacji rasowej. Policja w południowej Walii zarejestrowała już dane biometryczne 500 […]
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts
Pierwsza psychopatyczna sztuczna inteligencja (AI) powstała w Instytucie Technologii w Massachusetts (MIT). Naukowcy stworzyli „Normana”, aby wytłumaczyć, jak opracowywane są algorytmy, i uświadomić ludziom potencjalne zagrożenia AI. Okazuje się, że dane, na bazie których sztuczna inteligencja uczy się algorytmów, mogą znacząco wpływać na jej zachowanie. Norman otrzymywał tylko krótkie historie opisujące obrazy umierających ludzi, które […]
Pozostałe wydania