Categories
Blog

Prof. Michał Kosiński: Making Sense of modern AI

– Sztuczna inteligencja to najpotężniejsza technologia jaką wymyślono. Jest tak projektowana, że staje się bytem autonomicznym. Oczywiście wiele problemów rozwiąże, oszczędzi ludziom dużo czasu, ale być może przeznaczymy go na próby jej okiełznania – mówił prof. Michał Kosiński.

„Making Sense of modern AI”

Czy nowoczesna sztuczna inteligencja różni się od „starej”, która dwadzieścia siedem lat temu wygrała jeden z pięciu meczów szachowych z Garrim Kasparowem? Zdecydowanie tak.

Czy jesteśmy w stanie przewidzieć wszystko, co sztuczna inteligencja będzie mogła zrobić w najbliższych latach? Zdecydowanie nie.

Czy da się zrozumieć nowoczesną sztuczną inteligencję? Raczej da się zrozumieć tryb zmian AI, co może ułatwić ludziom odnalezienie się w nowych realiach.

Temu właśnie poświęcił swój wykład prof. Michał Kosiński. Rysując drogę rozwoju sztucznej inteligencji od 1996 roku do czasów współczesnych, starał się zwrócić uwagę na skok, jaki w tym czasie dokonał się w jej doskonaleniu. A to przecież dopiero początek. Należy liczyć się z tym, że przyspieszenie będzie jeszcze większe.

Przełom 1996

To wtedy „stara” sztuczna inteligencja wygrała partię szachów z mistrzem świata Garrim Kasparowem. Mimo że Kasparow wygrał trzy kolejne mecze a dwa zremisował, można ten moment uznać za przełom. Rok później IBM zwiększyło moc obliczeniową swojego komputera i Deep Blue wygrał już dwie z pięciu rund. Co zdecydowało o jego sukcesie? Potrafił przewidzieć 200 mln pozycji na sekundę, posiadał ogromną bazę danych wszystkich archiwalnych gier mistrzów szachów, pamięć i moc obliczeniową. Odpowiedź na pytanie: czy potrafił grać w szachy czy też był szybkim, ale głupim kalkulatorem – Kosiński daje posługując się metaforą chińskiego pokoju, eksperymentu amerykańskiego filozofa Johna Searle’a.

Alpha Zero jak ludzki umysł

W 2017 roku naukowcy z Deep Mine (obecnie część Google) postanowili podejść do uczenia maszyn gry w szachy w inny sposób. Zamiast tłumaczyć siatce neuronów jak grać, dając jej dostępy do gier archiwalnych, postawili sieci naprzeciwko siebie i polecili im grać. Po kilku milionach dość naiwnych pojedynków i po kilku godzinach treningu program Alpha Zero pokonał nie tylko najlepszego szachistę, ale wszystkie dostępne programy szachowe, rozwijane przez dziesiątki lat.

Kosiński zwraca uwagę, że zamiast trenować AI tradycyjnie, wywodząc rozwiązanie z historii myśli inżynierskiej, wytrenowano ją wg modelu, dzięki któremu uczą się ludzie. Czy Alpha Zero wiedziała jak grać w szachy, czy była nadal tylko kalkulatorem?  Jak mówił prof. Kosiński, metafora chińskiego pokoju jest nadal aktualna, ale tylko na poziomie indywidualnych neuronów w sieciach neuronowych. – To neurony przyjmują sygnały ze środowiska, przerabiają je, korzystając z instrukcji i przekazują sygnał dalej – tłumaczył. – Sieć prostych maszyn ma właściwości, których nie można przypisać żadnemu z indywidualnych neuronów. Jednak jako całość jest w stanie grać w szachy, poradzić sobie z sytuacjami, których nie otrzymała w danych treningowych, uczyć się przez doświadczenie, a nie dzięki instrukcjom – mówił.

Dzięki doświadczeniu AI staje się coraz lepsza. – Sieci neuronowe w swoich cechach nie są inne niż ludzki mózg – tłumaczył prof. Kosiński. – Każdy neuron w naszym mózgu jest relatywnie prostą biologiczną maszyną, skomplikowaną oczywiście bardziej niż w sztucznych sieciach. Są to zero-jedynkowe maszyny, które przyjmują wkład z niższych regionów środowiska, przerabiają go i przekazują dalej.

Jak mówił ekspert, jednemu neuronowi w głowie nie przypisuje się cech typowych dla ludzi. Neurony nie rozumieją, ale 85 mld neuronów w ludzkim mózgu czuje, nienawidzi, kocha itd. Alpha Zero miał ok 800 tys. neuronów, pszczoła ma ok 1 mln, a ludzki mózg ma ich 85 miliardów, a jednak Alpha wygrał z człowiekiem.

Porównując „starą” AI z „nową” trudno nie zauważyć kluczowej różnicy. Wiele kalkulacji wykonanych w ciągu sekundy, wspaniała logika, brak intuicji i doskonale opisane zastosowania to domena starej AI. Ta „nowa” została przygotowana oryginalnie i po 4 godzinach nauczyła się grać dzięki otwartym zastosowaniom.  Wydajność „starego” AI zależała od tego ile procesorów posiadała maszyna. „Nowe” AI też potrzebuje mocy obliczeniowej, ale jego jakość nie tyle zależy od prędkości, co od treningu.

 – Cechy nowego AI opisują cechy ludzkiego umysłu. Pytając, co może zrobić AI, pomyślcie, co może zrobić człowiek – mówił Kosiński. – Człowiek popełnia błędy, ludzkie błędy, a jego umiejętności zależą od doświadczenia. Uzmysłowienie sobie tego pozwala lepiej zrozumieć nowoczesne AI.

Jak czat GPT pisał limeryki

Historia prac naukowców z Google, którzy wzięli siatkę bardzo podobnych neuronów i przygotowali ją tak, by potrafiła przewidzieć brakujące słowo w akapicie tekstu, dała bazę do dalszego rozwoju sztucznej inteligencji. Po wielu miliardach operacji siatka neuronów potrafiła generować język podobny do ludzkiego. Wtedy pałeczkę przejęło GPT – opowiadał Kosiński – i tak w 2018 roku pojawił się czat GPT-1 z mózgiem złożonym ze 110 tys. neuronów czyli porównywalnym z mózgiem pająka. Śledząc, jak kolejne wersje czatu radzą sobie z napisaniem limeryku, Michał Kosiński wyjaśniał w jaki sposób dokonywał się postęp w rozwoju sztucznej inteligencji. Kolejne wersje czatu GPT posiadały mózgi porównywalne do mózgu mrówki, następnie pszczoły, a w 2022 roku GPT-3 davinci do mózgu gekona z 4 mln neuronów. Ale to właśnie ta maszyna, która wcale nie była trenowana do pisania limeryków, po 4 latach napisała wiersz, a w kolejnym roku jeszcze go udoskonaliła. Miała mózg zbudowany z 10 mln neuronów.

Jakie wnioski płyną z tej historii? – Następne GPT mogą mieć więcej neuronów – mówił Kosiński. – A kiedyś być może więcej niż jest ich w ludzkim mózgu. Sieci będą trenować się lepiej i szybciej. Jak mówił, pierwsze wersje czatów były prymitywne, ale GPT 4 pokazał umiejętności językowe, które mogą być porównywalne z umiejętnościami człowieka. – Wniosek jest taki, że pomimo iż nie dostrzegamy progresu pomiędzy 2018 a 2022 rokiem, to postęp idzie do przodu. Niesamowitą cechą postępu wykładniczego jest to, że w następnej jego turze, czyli za ok 12-18 miesięcy będzie taki jego przyrost jaki miał miejsce od początku historii rozwoju tych modeli. Czat GPT 5 będzie od GPT 4 tyle razy lepszy ile GPT 4 od GPT 1, bo są to systemy dynamiczne, które rozwijają się w interakcji ze środowiskiem – podsumował ekspert.

Co to oznacza? Jedną z konsekwencji dynamicznego charakteru AI jest to, że siatki neuronowe nie tylko zmieniają swoje zachowanie, ale zachowują się w sposób, który trudno przewidzieć, patrząc na ich projekty. Uczą się np. niepożądanych zachowań i uprzedzeń. – W filozofii nazywa się to: spontanicznie wyłaniające się właściwości – tłumaczył Kosiński. – Nie jesteśmy w stanie ich przewidzieć bez studiowania samych neuronów. Znając jednak działanie pojedynczego neuronu nadal nie sposób sobie wyobrazić, że 85 miliardów upchniętych w naszej głowie będzie mieć cechy takie jak ludzki umysł. Kosiński zwracał uwagę na jeszcze jedną kwestię. Oto zarezerwowana dla myślącego gatunku teoria umysłu pojawiła się u innego „myślącego gatunku”. Sztuczna inteligencja zdobywa umiejętności, do których wcale nie była trenowana. Uczona, by przewidzieć słowo brakujące w zdaniu, zaczyna nabywać umiejętności, które były tylko domeną człowieka.

Michał Kosiński, prof. Uniwersytetu Stanforda, doktorat uzyskał z psychologii na Uniwersytecie Cambridge. Zajmuje się badaniem ludzi w środowisku cyfrowym przy użyciu najnowocześniejszych metod obliczeniowych, sztucznej inteligencji i Big Data. Jest współautorem podręcznika Modern Psychometrics; opublikował ponad 90 artykułów m.in. w Nature Scientific Reports, Proceedings of the National Academy of Sciences, Psychological Science, Journal of Personality and Social Psychology oraz Machine Learning. Stał za pierwszym artykułem prasowym ostrzegającym przed Cambridge Analytica.

Categories
Blog

W czwartek 28 września webinar w programie Akceleratora

Już w czwartek 28 września odbędzie się pierwsza po wakacjach z sesji szkoleniowych Akceleratora Innovatorium. Webinar rozpocznie się wyjątkowo już o godz. 9.00 i potrwa do 12.00. Zajęcia poprowadzą:

9.00 – 10.00 profesor Michał Kosiński, z Uniwersytetu Stanforda, który stał za pierwszym artykułem prasowym ostrzegającym przed Cambridge Analytica opowie o wpływie rewolucji sztucznej inteligencji na organizacje, społeczeństwa i jednostki. Etyczne, ekonomiczne i społeczne aspekty LLM i sztucznej inteligencji, wpływ na siłę roboczą, prywatność, odpowiedzialność i przyszłość interakcji między człowiekiem a sztuczną inteligencją.


10.00 – 12.00 odbędzie się sesja kreatywności (w języku angielskim) a poprowadzi ją Emilie Ruiz, prof. nadzwyczajny zarządzania innowacjami i kreatywnością na Uniwersytecie Savoie Mont Blanc we Francji, członek laboratorium IREGE. Prof. Ruiz opowie o koncepcji kreatywności, obejmującej trzy nieodłączne poziomy analizy: indywidualny, zbiorowy i organizacyjny oraz m.in. o sposobach jej wspierania oraz o roli sztucznej inteligencji w procesie twórczym w biznesie.

Przypominamy, że zespoły uczestniczące w programie spotykają się na finalnym Demo Day 14 grudnia w Warszawie z udziałem przedstawicieli funduszy VC:

Podczas Demo Day zespoły będą mogły zaprezentować swoje projekty funduszom VC. Wydarzenie odbędzie się w formule hybrydowej (dla chętnych możliwość oglądania transmisji live). Zainteresowane zespoły mogą kontaktować się z mentorami w tej sprawie lub kierować zgłoszenia i pytania na adres kontakt@innovatorium.eu. Informacje o terminie zamknięcia zgłoszeń na DemoDay będziemy przekazywać w kolejnych tygodniach.

Herb Polski
Flaga Polski

Dofinansowanie ze środków Ministra Edukacji i Nauki w ramach programu Społeczna Odpowiedzialność Nauki –
Popularyzacja nauki i promocja sportu. Projekt: Akcelerator AI i Blockchain

DOFINANSOWANIE: 800 000 ZŁ
CAŁKOWITA WARTOŚĆ: 920 000,00 ZŁ