Blog

Carissa Véliz: O  etyce prywatności i sztucznej inteligencji 

– Etyka w AI nie jest kwestią drugorzędną. Trzeba o niej myśleć jak o części składowej dobrego projektu, który powinien być przydatny i piękny. Etyka jest częścią tej mieszanki – mówiła prof. Carissa Véliz.

Swój wykład prof. Carissa Véliz rozpoczęła od przypomnienia historii, która miała miejsce w stanie Michigan w 2013 roku. To tam zastosowano algorytm, który miał zweryfikować, czy pobierający zasiłek dla bezrobotnych, są do niego uprawnieni. Algorytm wskazał na 34 tys. osób, które otrzymywały go bezprawnie. Odebrano im świadczenie, co w konsekwencji skończyło się utratą mieszkań, rozpadem rodzin, a nawet samobójstwami. Po pewnym czasie okazało się, że algorytm pomylił się w 93. proc przypadków.

– Chcę was zachęcić do przemyśleń na temat etyki w kontekście AI i start-upów – mówiła Carissa Véliz, podkreślając, że etyka nie jest kwestią drugorzędną. Trzeba o niej myśleć jak o części składowej dobrego projektu. – Kiedy myślisz o stworzeniu naprawdę niesamowitego produktu, chcesz, by był przydatny i piękny. Etyka jest częścią tej mieszanki – mówiła Véliz.

Etyka ma sens

Według ekspertki, podejście etyczne do produktu daje też korzyści stricte biznesowe – przewagę konkurencyjną. Teraz bardziej niż kiedykolwiek. Jeśli produkt jest bardzo dobry, to dzięki dbałości o sferę etyczną, będzie jeszcze lepszy, bo twórcom łatwiej będzie się dostosować do wymogów prawa unijnego – RODO lub AI ACT. – Ludzie będą chcieli z niego częściej korzystać. Dziesięć lat temu firmom uchodziły na sucho zachowania nieetyczne, ale teraz użytkownicy są bardziej świadomi i docenią produkt, do którego twórcy podeszli w sposób etyczny – przekonywała Véliz . – Także fundusze VC zwracają obecnie uwagę na etyczne podejście do AI w sposób, jaki nie robiły tego wcześniej. Wiedzą, że nadchodzące regulacje mogą sprawić, że problemy etyczne związane z produktem, mogłyby stać się obciążeniem – tłumaczyła.

By zobrazować wagę etyki w AI, Carissa Véliz posłużyła się analogiami do etyki w medycynie. Wypracowanie jej zasad trwało długo, ale dały one pacjentowi prawo decydowania o sobie, możliwość stawiania pytań i konieczność odpowiedzi na nie przez lekarza. Niestosujących się do zasad, można poddać karze.  – Obecnie stajemy przed dylematami, których nie było w przeszłości, bo np. nie gromadziliśmy danych osobowych i nie analizowaliśmy ich – mówiła prof. Véliz. – Poza tym mieliśmy już do czynienia ze skandalami, choćby Cambridge Analytica, co obrazuje, dlaczego potrzebujemy etyki. Ekspertka zwracała uwagę, że choć ta firma została zamknięta, to wiele innych robi to samo, czyli całkowicie lekceważy autonomię ludzi, ich zdolności i prawa do samostanowienia i bycia wiernymi swoim wartościom. – Człowiek decyduje, ile czasu poświęci np. na obecność w social mediach, ale one są tak projektowane, by angażowały i uzależniały – tłumaczyła Carissa Véliz. – Armia ludzi po drugiej stronie ekranu próbuje zrobić wszystko, by nie stracić użytkownika i przejąć kontrolę nad nim – dodała, podając przykład Netflixa, który ubolewał, że jego największym konkurentem jest potrzeba snu człowieka, więc konieczne jest wymyślenie rozwiązania, które przekonałoby ludzi do jej ignorowania.

Nie sądzicie, że możecie być nieetyczni

– Etyka nie stanie się przy okazji i przez przypadek, choć tak nam się wydaje, bo mamy raczej tendencję do myślenia o sobie jako o dobrych osobach. Jak bardzo może być to złudne, zwłaszcza w sytuacji ekstremalnej, pokazał eksperyment Stanleya Milgrama, który zadał pytanie o przyczyny ślepego posłuszeństwa wobec rozkazów, które tzw. zwykłych ludzi doprowadziły do ludobójstwa. Przebieg i wynik badania, które prof. Véliz szczegółowo opisała, pokazuje skłonność ludzi do podporządkowania się autorytetom i łatwego zamienienia się w trybiki w systemie. – Dużo mówi się o związku etyki i prawa – zwracała uwagę Véliz. – Dobrze, że jest RODO, ale prawo i etyka są komplementarne wobec siebie. Etyka może reagować szybciej niż prawo, które trzeba stale dostosowywać do zmieniających się realiów.

Jak zadbać o etyczny aspekt w przypadku własnego produktu?

Ekspertka wskazała na trzy kwestie, które wg niej mogą pomóc w utrzymaniu „kursu na etykę”. Po pierwsze, tworząc produkt warto brać pod uwagę nie tylko kim są akcjonariusze, ale i interesariusze, czyli kto ma interes we wdrożeniu konkretnego rozwiązania, ale też kto jest najbardziej narażony na ryzyko.

Druga kwestia to stworzenie i przestrzeganie zasad, które zapewnią, że start-up nie znajdzie się zbyt blisko „czerwonej linii”; że nie dojdzie do sytuacji, która nigdy nie powinna mieć miejsca. Wystarczy pamiętać, by tworząc – czynić dobro, szanować prawa ludzi do samostanowienia, być sprawiedliwym,  nie ograniczać niczyjej autonomii. I jeszcze jedna zasada, bardzo ważna: umiejętność wyjaśniania.  Algorytm ma być zrozumiały, ma dawać twórcy poczucie, że nad nim panuje, a w razie potrzeby będzie w stanie wyjaśnić jego decyzje. Niezbędne jest, by użytkownik wiedział też do kogo ma się zwrócić, jeśli pojawią się jakieś problemy.

Sprawa trzecia to oparcie się na etyce cnót. Zamiast skupiać się na „czerwonych liniach” i konsekwencjach, warto skoncentrować się na tym, jaką osobą chcemy być.

Technologia nie jest neutralna

– Co czyni AI tak wyjątkową, że powinniśmy stworzyć odpowiednie dla niej zasady etyczne? – Jedyna rzeczą, która czyni ją wyjątkową jest jej nieprzejrzystość – twierdzi Carissa Véliz. – W przypadku algorytmu nie jesteśmy w stanie go ocenić, czasem nawet nie zorientujemy się, że mamy do czynienia z algorytmem. Potrzebujemy zasad. Jak mówiła prof. Véliz, konieczne byłoby m.in. podważenie dogmatu, że im więcej danych tym lepiej dla działania algorytmu. – Ale to nie jest dobro bezwarunkowe – podkreślała. – Dane są dobre o ile są dokładne, ich użycie nie powoduje odpowiedzialności prawnej, są niezbędne do tego co zamierza się zrobić. Wg ekspertki, powinniśmy myśleć o danych osobowych jak o toksycznym zasobie: są tanie, łatwe do zdobycia, przydatne, ale ich posiadanie jest toksyczne, więc trzeba się zaangażować w ich zabezpieczenie, o czym wiele start-upów nie pamięta.

Prof. Véliz  twierdziła, że firmy technologiczne będą przekonywać, iż technologia jest neutralna. Ale tak nie jest. Technologie nadzoru nie są neutralne. – Nawet termin gromadzenia danych jest mylący, ponieważ sugeruje, że zbieramy je jak grzyby, tymczasem zamieniając świat analogowy w cyfrowe dane, tworzymy coś, co można przeszukiwać, śledzić i kierować, czego wcześniej nie dało się robić – zwróciła uwagę Véliz, dodając, że technologia cyfrowa staje się technologią nadzoru, która ostatecznie powoduje utratę wolności. Czy można temu jakoś przeciwdziałać? Największym problemem w etyce sztucznej inteligencji jest prywatność (Carissa Véliz jest autorką książki „Privacy is Power”, w której tłumaczy, że odzyskanie prywatności to jedyny sposób, by odzyskać kontrolę nad naszym życiem. Korporacje i rządy mają zbyt dużą władzę, a nasze dane są wykorzystywane w nadmierny sposób – red.). Także sprawiedliwość – mówiła Carissa Véliz – nie jest produktem matematycznym czy algorytmicznym,  ale oceną moralną. Nie da się zautomatyzować etyki. Warto o tym pamiętać, wchodząc na ścieżkę start-upu, by nie żałować projektu, nad którym spędzi się lata pracy. I nie być podobnymi do twórcy algorytmu z Michigan.

Carissa Véliz profesor nadzwyczajna (Associate Professor) na Wydziale Filozoficznym i Instytucie Etyki w AI, a także Tutorial Fellow w Hertford College na Uniwersytecie Oksfordzkim. Zajmuje się etyką cyfrową, autorka książki „Prywatność to potęga” (Privacy Is Power).

Podobne artykuły:

Herb Polski
Flaga Polski

Dofinansowanie ze środków Ministra Edukacji i Nauki w ramach programu Społeczna Odpowiedzialność Nauki –
Popularyzacja nauki i promocja sportu. Projekt: Akcelerator AI i Blockchain

DOFINANSOWANIE: 800 000 ZŁ
CAŁKOWITA WARTOŚĆ: 920 000,00 ZŁ