– To nie algorytmy są etyczne lub nieetyczne. Istotny jest za to sposób ich wdrażania w prawdziwym świecie. Często mówi się, że trzeba uczyć informatyków etyki, wtedy przestaną tworzyć nieetyczne algorytmy, ale to nie oni są decydentami, lecz wpływowi ludzie. To oni podejmują decyzje, jak używać technologii AI w biznesie – mówił prof. David Stillwell.
– Jeśli macie zamiar wykorzystywać w swojej pracy dane, pamiętajcie o czterech zasadach – powiedział twórcom start-upów prof. Stillwell podczas spotkania w ramach Innovatorium.
Te zasady to:
- Transparentność – ponieważ ludzie muszą wiedzieć co się dzieje z ich danymi
- Możliwość kontroli przez użytkownika – np. przez wyrażenie zgody i możliwość rezygnacji z uczestnictwa w określonym projekcie
- Dostrzeżenie znaczenia – by w tym co robicie klient widział sens oraz odbierał jako działania uczciwe
- Korzyść – gdy klient czuje, że jego dane zostały wykorzystane w dobrym celu.
– Organizacje, które decydują się na korzystanie z big data, muszą podporządkować się szczególnym zasadom, a kluczową powinno być przestrzeganie zasad etycznych – przekonywał ekspert, który w swoich badaniach naukowych zajmuje się m.in. analityką danych w kontekście nauk społecznych. Wykład Davida Stillwella oparty był na licznych przykładach i ich analizie, a ich wspólnym mianownikiem było pytanie o granice, które człowiek postawić algorytmowi/biznesowi/decydentom.
Bezpieczne dane
– Jak bardzo otwarci jesteście na powierzanie firmom swoich danych – pytał Stillwell. Czy ufacie, że są u nich bezpieczne i wykorzystywane wyłącznie w celu, dla którego je przekazaliście? Jak to jest, że nawet jeśli świadomie dzielimy się nimi, nie czujemy się z tym komfortowo?
Stillwell przypomniał artykuł, który powstał w konsekwencji badań przeprowadzonych przez niego wraz z Michałem Kosińskim i Thore Graepelem. Pokazywały one jak cyfrowe zapisy można wykorzystywać do automatycznego i dokładnego przewidywania szeregu wrażliwych danych osobowych; od stanu cywilnego, posiadania dzieci, IQ przez palenie papierosów itp. aż do poglądów politycznych, które można przewidzieć – uwaga – na podstawie informacji o ludziach, którzy lubią biwakować. Badania pokazują, że prawdopodobnie 65 proc. z nich to wyborcy Republikanów.
– Zła wiadomość jest taka, że problem dotyczy nie tylko użytkowników Facebooka, ale i TT/X, posiadaczy telefonu komórkowego czy karty kredytowej, albo słuchaczy … Spotify. – Dane związane z podejmowaniem przez ludzi decyzji o tym co kupić, jakiej muzyki słuchać, co oglądać, pozwalają spersonalizować człowieka – mówił Stillwell. – W realnym świecie służą do zarabiania dużych pieniędzy.
Psychometryczne dylematy
Praca w start-upie technologicznym oznacza też konieczność podejmowania określonych decyzji. Co w sytuacji, gdy pojawiają się etyczne wątpliwości odnośnie projektu? Czy pewne rozwiązania należy wprowadzać w życie? A jeśli tak, to pod jakimi warunkami?
– To nie algorytmy są etyczne lub nieetyczne. Istotny jest za to sposób ich wdrażania w prawdziwym świecie. Często mówi się, że trzeba uczyć informatyków etyki, wtedy przestaną tworzyć nieetyczne algorytmy, ale to nie oni są decydentami, lecz wpływowi ludzie. To oni podejmują decyzje, jak używać technologii AI w biznesie – mówił prof. David Stillwell.
Jako przykłady ekspert wybrał m.in. aplikację randkową, by postawić pytanie: czy wykorzystanie big data i AI w aplikacji randkowej jest etycznie poprawne? Co się stanie, gdy starając się jeszcze bardziej dopasować użytkowników sięgniemy do danych głębiej, tak, że określimy ich typy osobowości? Co powinny zawierać wiadomości o potencjalnym wyrażeniu zgody na korzystanie z danych? Czy mają się w nich znaleźć szczegóły dotyczące profilowania?
Inny przykład dotyczył propozycji zbudowania algorytmu, który zastępowałby dział HR w podejmowaniu decyzji o zatrudnieniu kandydata na określone stanowisko. Czy aplikacja przejmująca działania pracowników HR, którzy – o czym doskonale wszyscy wiemy – w ostatnich latach przeglądają internet w poszukiwaniu informacji o kandydacie, jest etyczna?
– To, co robicie, musi mieć sens dla klienta i być uczciwe. Benefitem powinno być to, że klient czuje się bezpiecznie i komfortowo. Wie, co się dzieje z jego danymi, ma możliwość kontrolowania i decydowania – podkreślał Stillwell.
Często firmy mówią, że mamy świat nowych technologii, więc warto szukać rozwiązań, które pozwolą na tym zarobić. David Stillwell przypomina jednak: właściwe pytanie brzmi: skoro mamy nowe technologie, jak możemy stworzyć produkt lepszy i bezpieczniejszy?
David Stillwell, profesor of Computational Social Scienc at Cambridge University Judge Business School