Startująca dziś wystawa w Osservatorio Fondazione Prada Training Humans ma postać historycznego przesłuchania. Rozpoczyna się więc od zdjęć, których użyto przy pierwszych skomputeryzowanych eksperymentach rozpoznawania twarzy. Finansowały je Centralna Agencja Wywiadowcza (CIA) w USA od 1963 roku. W latach 90. opracowano bardziej zaawansowaną generację komputerowych systemów wizyjnych. Przyczyniło się do tego Biuro Programu Rozwoju Technologii Counterdrug Departamentu Obrony USA. Dla bazy danych znanej jako Technologia Rozpoznawania Twarzy (FERET) stworzyli kolekcję portretów 1199 osób. W sumie 14 126 zdjęć wykorzystano, aby uzyskać „standardowy test porównawczy”. Umożliwia on badaczom opracowanie algorytmów na wspólnej bazie danych zdjęć. Sztuczna inteligencja ma za zadanie czytać człowieka ze zdjęcia.
Etykiety na zdjęciach ludzkich twarzy
Popularyzacja Internetu i mediów społecznościowych spowodowała eksplozję obrazów. Badacze sztucznej inteligencji przeszli od korzystania z kolekcji państwowych, takich jak mugshoty zmarłych przestępców, do gromadzenia zdjęć z sieci. Ta praktyka szybko się znormalizowała, a wiele osób związanych z AI zaczęło zbierać miliony publicznie dostępnych zdjęć. Nie pytali przy tym o zgodę fotografów lub fotografowanych. Zastosowanie etykiet do tych obrazów – często wykonywanych w laboratoriach lub przez pracowników Amazon Mechanical Turk – tworzy reżim klasyfikacji. Osoby na zdjęciach oznaczono rasą, płcią, wiekiem, emocjami, a czasem charakterem osobistym. Ten proces klasyfikacji ma wyraźne i trwałe implikacje polityczne, ponieważ kontynuuje mroczną historię postkolonialnych i rasistowskich systemów podziału populacji.
Sztuczna inteligencja nas ocenia
Istotne dla autorów wystawy: Crawford i Paglena, są taksonomie klasyfikacyjne związane z ludzkim afektem i emocjami. System sztuczna inteligencja opiera na mocno krytykowanych teoriach psychologa Paula Ekmana. Twierdził on, że wachlarz ludzkich uczuć można sprowadzić do sześciu uniwersalnych emocji. Teraz algorytmy dokonują pomiarów wyrazu twarzy, aby ocenić wszystko. Od zdrowia psychicznego, przez decyzję czy kogoś zatrudniony, czy też dana osoba popełni przestępstwo. Tego rodzaju systemy klasyfikacji osiągają apogeum w zbiorze danych szkoleniowych o nazwie ImageNet (2009). Twórcy opisali go jako próbę „zmapowania całego świata obiektów”. Patrząc na obrazy w tej kolekcji i widząc, jak osobiste zdjęcia ludzi zostały oznaczone etykietą, rodzą się dwa zasadnicze pytania. Gdzie są granice między nauką, historią, polityką, uprzedzeniami i ideologią sztucznej inteligencji? I kto może budować i korzystać z tych systemów?