Categories
Blog

Michał Kibil: Prawne aspekty wykorzystywania sztucznej inteligencji

– Jeżeli przedsiębiorca decyduje się wdrażać model biznesowy oparty na sztucznej inteligencji, to śledzenie przepisów, odnoszących się do jego obszaru zainteresowań, jest obowiązkiem. Przepisy będą się zmieniać bardzo szybko i będą coraz mniej kompatybilne do obowiązujących – mówi mecenas Michał Kibil.

– Nasza rzeczywistość zmienia się drastycznie w obszarze sztucznej inteligencji. AI zdominowała technologie innowacyjne. W ciągu półtora roku z typowo hype’owej konstrukcji (krzywa hype’u Gaertnera – wykres obrazujący kolejne cykle zainteresowania i wykorzystywania nowych technologii przez poszczególne branże – red. ) stała się rozwiązaniem wykorzystywanym biznesowo – zwraca uwagę Michał Kibil.

Jak to może wyglądać pokazał nam w ostatnich miesiącach czat GPT, który wywrócił stolik i zmusił do zmiany dopiero co wypracowanych regulacji AI ACT. Nikt nie spodziewał się bowiem, że powstanie system przyuczony na tak dużej bazie danych i tak komunikatywny dla użytkowników. Sztuczna inteligencja będzie nas zaskakiwać coraz szybciej i częściej, a prawo może za nią nie nadążyć.

– Nowe technologie rozwijają się wykładniczo – tłumaczy Michał Kibil. – Z każdym kolejnym rokiem wzrasta zarówno moc obliczeniowa, jak i pamięć komputerów; takie jest też tempo rozwoju wszystkich biznesów, również tych opartych na technologiach. I tego nie jesteśmy w stanie nadgonić, bo regulacje prawne rozwijają się liniowo – mówi ekspert.

Co to oznacza? Konserwatywny świat regulacji zderza się na naszych oczach z technologiami, które będą się rozwijać, a ludzie będą w nie inwestować, bo dzięki nim są w stanie eliminować błędy, przyspieszać procesy w przedsiębiorstwach, zabezpieczać organizacje na różnych poziomach, ograniczać koszty, poprawić komunikację. – Tyle że AI jest przy tym wszystkim nadal tylko technologią. Jako technologia może popełniać błędy, o czym przedsiębiorcy muszą pamiętać – przypomina mec. Kibil. I dodaje: – Z mojego punktu widzenia największym wyzwaniem jest aspekt prawny, bo prawo nie nadąża za rozwojem technologii, nie ma jednego unormowanego kodeksu, który dotyczyłby AI, czy w ogóle technologii.

Po pierwsze przepisy

Michał Kibil przypomina, że tworzenie prawa wymaga czasem kilku lat, podczas gdy rozwiązania oparte na AI mogą ewoluować w tym czasie na wiele sposobów, co pokazał wspomniany czat GPT.

– Jeżeli przedsiębiorca decyduje się wdrażać model biznesowy oparty na sztucznej inteligencji to bieżące śledzenie przepisów odnoszących się do obszaru jego zainteresowań jest obowiązkiem. Przepisy będą się zmieniać bardzo szybko i będą coraz mniej kompatybilne do obowiązujących – mówi ekspert.

Decyzja w jakim celu chce się tworzyć i stosować AI, jaki ma być role model narzędzia będzie determinować użycie określonych regulacji prawnych. Dlatego warto odpowiedzieć sobie na kilka pytań – sugeruje prawnik:

  • W jakim modelu powstanie narzędzie (Saas czy on-premises) – w zależności od tego definiowane będą zarówno zapisy umów, które są elementem systemu prawnego, do którego trzeba się odnosić, jak i istotnych regulacji, innych w przypadku danych osobowych w modelach chmurowych, a innych w modelach on-promises i instalacji oprogramowania na serwerach klienta.
  • Jakie funkcjonalności mają one zapewniać – finansowe, HR-owe, inne. 
  • Do jakich danych system będzie mieć dostęp – czy będzie przetwarzać dane osobowe (wtedy RODO), czy będzie przetwarzać dane objęte prawem autorskim, a może dane publiczne, które zostały udostępnione do przyuczenia modelu.
  • Kto będzie klientem docelowym i gdzie będzie rozwijane oprogramowanie – na rynku europejskim, czy w USA lub Azji.
  • Jak chcemy zaadresować prawa autorskie – zarówno przy przyuczaniu modelu, jak i przy wykorzystywaniu narzędzia.

RODO to podstawa

W większości przypadków regulacją, do której powinni dostosować się przedsiębiorcy jest RODO. – To pierwsza regulacja w UE, stworzona tak, by podążać za rozwojem technologii. Ma odniesienie do wszystkich, którzy przetwarzają jakiekolwiek dane osobowe i każdego kto buduje system oparty na sztucznej inteligencji, mający na celu przetwarzanie danych osobowych – wyjaśnia mec. Kibil. – Dotyczy też zarówno administratorów danych osobowych, jak i tych, którzy są podwykonawcami. Mitem jest, że nie trzeba dostosować się do RODO, jeśli jest się tylko dostawcą narzędzia, które te dane przetwarza. Za niezabezpieczenie danych grozi odpowiedzialność i wobec Prezesa UODO, i wobec klienta za ich ujawnienie, przetwarzanie niezgodne z wiedzą, niepoinformowanie użytkowników o sposobie przetwarzania  – przestrzega Kibil.

RODO będzie mieć szerokie zastosowanie, bo kwestią podstawową jest zabezpieczenie danych przed ich utratą albo ujawnieniem. W przypadku oparcia się na systemach sztucznej inteligencji będzie to naprawdę wyzwanie, bo choćby dane wykorzystywane do przyuczenia algorytmu i do wytrenowania sieci neuronowych nie muszą być przetrzymywane w modelu, w którym ich bezpieczeństwo na serwerze będzie pewne. Także podczas przesyłania na inny serwer trzeba dane szczególnie zabezpieczyć, bo jesteśmy za nie odpowiedzialni. – Zawsze musimy mieć podstawę do przetwarzania danych osobowych, a osoby których dane przetwarzamy, muszą być poinformowane w jakim celu się to odbywa i jak mogą się odwołać od decyzji algorytmów do człowieka (choćby przy procesie rekrutacji prowadzonym z wykorzystaniem AI) – przypomina Michał Kibil.

Przy stosowaniu RODO w AI konieczna jest też wiedza: czy przetwarzanie danych odbywa się w ramach systemu RPA (zrobotyzowana automatyzacja procesów), kogo terytorialnie dotyczy regulacja (nie tylko osób, których dane są umiejscowione na serwerach UE, ale wszystkich usług świadczonych na terytorium UE lub z terytorium UE), kto jest administratorem danych (pierwotny podmiot) a kto procesorem (podwykonawcy z dostępem do danych), jak realizowane jest bezpieczeństwo danych na poziomie privacy by design ( tworząc architekturę systemu należy mieć świadomość jak dane będą przetwarzane) i w privacy by default (w samym procesie przetwarzania). Ponadto nieustannie towarzyszącym pytaniem powinno być to, czy wszystkie dane na pewno są niezbędne do przetwarzania. – Jeśli myślicie na serio o dostarczaniu jakiegokolwiek narzędzia, dzięki któremu dane będą przetwarzane, zróbcie to wszystko – mówi Michał Kibil. Wdrożenie RODO, audyt, analiza ryzyka DPIA, przygotowanie dokumentacji – to podstawa. Nie można też pominąć kwestiipseudonimizacji i anonimizacji danych (to nie są synonimy!). Jeśli pracujemy na zanonimizowanych danych, wtedy nie przetwarzamy danych osobowych, bo nie potrafimy przypisać ich do konkretnych osób – przypomina Kibil.

Dobrym nawykiem jest też przygotowanie short checkboxa, który pozwoli opracować bazę danych ze szczegółami dotyczącymi ich przetwarzania: gdzie dane są przechowywane, jakie są okresy retencji, które dane musimy przetwarzać, czy baza użyta do przyuczania jest nam konieczna czy można ją usunąć i uniknąć narażenia się na zarzut przetrzymywania danych, jak odpowiednio zaprojektować infrastrukturę oprogramowania, by móc udowodnić, że zabezpiecza ona dane czy wreszcie na jakich danych będzie przyuczana AI, jakie inne dane mogą zidentyfikować osoby i jakie inne dane mogą być zapisane na serwerach.

Prawa autorskie

Czy szympans bonobo, który sam zrobił sobie zdjęcie ma coś wspólnego ze sztuczną inteligencją? W kontekście AI i prawa okazuje się, że tak, odkąd sąd orzekł, że szympans nie może być twórcą, bo nie jest człowiekiem, podczas gdy utworem jest tylko wytwór człowieka. Zdjęcie zrobione przez małpę pozostaje w domenie publicznej, nikt nie ma do niego ani majątkowych, ani osobistych praw autorskich. Podobnie jest w przypadku sztucznej inteligencji, a to oznacza, że na tym co wytworzy AI ciężko będzie zarabiać. – Nie zarobicie na przenoszeniu praw do utworów, a jedynie na usługach – uprzedza ekspert.

Ale kwestia praw autorskich jest znacznie szersza w kontekście sztucznej inteligencji. Kto ma na przykład prawo do oprogramowania? – Sam algorytm i sieć neuronowa nie są objęte prawami autorskimi, ale już zamknięte oprogramowanie, wykorzystujące tę sieć neuronową owszem – zwraca uwagę mec. Kibil. Wg prawnika algorytm może być chroniony jako know how, ale nie na gruncie praw autorskich, lecz ustawy o przeciwdziałaniu nieuczciwej konkurencji. A jak prawo chroni IP w AI? Michał Kibil przypomina, że w przypadku gdy nie chodzi o oprogramowanie, przysługuje nam prawo do żądania zaprzestania naruszeń a nawet odszkodowania. W przypadku oprogramowania roszczenie o jego ochronę. – Pamiętajcie, by przyuczając AI nie naruszać praw innych podmiotów – przypomina ekspert. – Wykorzystując do uczenia dzieła, do których wykorzystania nie mamy uprawnień ryzykujemy odpowiedzialnością odszkodowawczą a nawet koniecznością zwrócenia zysków, które osiągnęliśmy z naruszania praw autorskich.

Inne regulacje mające zastosowanie do AI

Michał Kibil wymienia kilka: Data Governance Act (rozporządzenie w sprawie zarzadzania danymi), który może pomoc w rozwijaniu algorytmów sztucznej inteligencji, Kodeks pracy – bo dotyka kwestii podnoszonych także w kontekście AI i zakazu dyskryminacji, DORA (bezpieczeństwo finansowe), NIS/NIS2 – (cyberbezpieczeństwo), AI ACT, który stanie się regulacją przełomową, wprowadzając nową definicję sztucznej inteligencji.

Umowa niemniej ważna niż przepisy

Ustalenie warunków umowy jest kluczowe – przekonuje mec. Michał Kibil. Jej kształt będzie zależeć od tego w jakim modelu wdrażane będzie AI, jaki będzie model licencjonowania oprogramowania, jak będzie się wdrażać prawa autorskie, jaka będzie odpowiedzialność stron, jakie będą elementy poufności dotyczące algorytmu, czas dostępności systemu, zasady przetwarzania danych, odpowiedzialność stron za przyuczenie algorytmu, czy czas trwania umowy.

Categories
Blog

W czwartek 28 września webinar w programie Akceleratora

Już w czwartek 28 września odbędzie się pierwsza po wakacjach z sesji szkoleniowych Akceleratora Innovatorium. Webinar rozpocznie się wyjątkowo już o godz. 9.00 i potrwa do 12.00. Zajęcia poprowadzą:

9.00 – 10.00 profesor Michał Kosiński, z Uniwersytetu Stanforda, który stał za pierwszym artykułem prasowym ostrzegającym przed Cambridge Analytica opowie o wpływie rewolucji sztucznej inteligencji na organizacje, społeczeństwa i jednostki. Etyczne, ekonomiczne i społeczne aspekty LLM i sztucznej inteligencji, wpływ na siłę roboczą, prywatność, odpowiedzialność i przyszłość interakcji między człowiekiem a sztuczną inteligencją.


10.00 – 12.00 odbędzie się sesja kreatywności (w języku angielskim) a poprowadzi ją Emilie Ruiz, prof. nadzwyczajny zarządzania innowacjami i kreatywnością na Uniwersytecie Savoie Mont Blanc we Francji, członek laboratorium IREGE. Prof. Ruiz opowie o koncepcji kreatywności, obejmującej trzy nieodłączne poziomy analizy: indywidualny, zbiorowy i organizacyjny oraz m.in. o sposobach jej wspierania oraz o roli sztucznej inteligencji w procesie twórczym w biznesie.

Przypominamy, że zespoły uczestniczące w programie spotykają się na finalnym Demo Day 14 grudnia w Warszawie z udziałem przedstawicieli funduszy VC:

Podczas Demo Day zespoły będą mogły zaprezentować swoje projekty funduszom VC. Wydarzenie odbędzie się w formule hybrydowej (dla chętnych możliwość oglądania transmisji live). Zainteresowane zespoły mogą kontaktować się z mentorami w tej sprawie lub kierować zgłoszenia i pytania na adres kontakt@innovatorium.eu. Informacje o terminie zamknięcia zgłoszeń na DemoDay będziemy przekazywać w kolejnych tygodniach.

Categories
Blog

Rozwiń technologiczny pomysł w plan biznesowy — i wystąp przed funduszem Venture Capital

Wiesz, jak zautomatyzować pracę z pomocą sztucznej inteligencji? Działasz w kole naukowym albo prowadzisz projekt badawczy dotyczący big data, AI czy blockchainu? Zgłoś się indywidualnie lub z zespołem do Akceleratora Innovatorium. To program, który pomaga przekształcić pomysł w biznes. Zgłoszenia są otwarte do 7 czerwca włącznie.

Po publicznej premierze ChatGPT startupu OpenAI w zaledwie 2 miesiące przyciągnął 100 milionów internetowych użytkowników. Innowatorzy, którzy mają własne pomysły na rozwiązania ulepszające rzeczywistość, mogą sięgnąć po wiedzę biznesową oraz pomoc ekspertów Akceleratora Innovatorium. Program proponuje bezpłatne wsparcie merytoryczne, także dla początkujących startupów. Specjaliści pokazują uczestnikom, jak wprowadzić technologiczny pomysł biznesowy na polski i światowy rynek.

Co muszę powiedzieć w pitchu?

Do najnowszej edycji cyklu, która wystartuje 15 czerwca, można zgłaszać się pod adresem: https://akcelerator.innovatorium.eu/. Zakwalifikowani w ciągu 6 miesięcy dowiedzą się, jak przygotować skuteczny pitch, jak opracować spójne know-how oraz jak startup może stać się “jednorożcem”. W roli mentorów wystąpią doświadczeni przedsiębiorcy oraz nauczyciele akademiccy, m.in. prof. Pinar Ozcan z Uniwersytetu w Oxfordzie, prof. Mike Rosenberg z IESE Business School, prof. Davidi Stillwell z Uniwersytetu Cambridge czy prof. Michał Kosiński z Uniwersytetu Stanforda.

Zajęcia w formie wykładów, webinarów mają formę online, a zakwalifikowane zespoły otrzymują także wsparcie mentorów-praktyków. Program zakończy się demo day, podczas którego uczestnicy, korzystając z wiedzy zdobytej w ramach Akceleratora, opowiedzą o swoich pomysłach potencjalnym inwestorom z funduszy VC.

— Zadaniem naszego programu jest wyposażenie uczestników programu w praktyczne umiejętności i wiedzę, ale to tylko początek drogi do budowania skutecznego startupu czy skalowania biznesu — tłumaczy Paweł Nowacki z Akceleratora Innovatorium. — W programie zespoły rozwiną swoją koncepcję biznesową do poziomu niezbędnego do prezentacji przed funduszem Venture Capital w trakcie Demo Day w grudniu. Uczestnicy będą pracowali nad projektami pod opieką mentorów. Fundusze i zespoły zachowają prawo swobodnego zawierania umów — podkreśla Nowacki.

Maszyny nastawiają kości, a algorytmy chronią pracownika

W ubiegłorocznej edycji Akceleratora Innovatorium wzięło udział ponad 40 zespołów. 11 z nich wystąpiło finalnie w Demo Day. W tym gronie byli m.in. twórcy systemu Thermosafety, który dzięki algorytmom rozpoznającym obecność ludzi pozwala na zwiększenie bezpieczeństwa pracujących z maszynami. Chodzi o otoczenie linii produkcyjnych, ciężkich pras czy rozdrabniaczy. StoryPlanetGo to z kolei platforma turystyczna łącząca przewodników i ekspertów z różnych dziedzin z ciekawymi świata turystami. Firma Mediprintic skupiła się na udoskonaleniu leczenia złamań przedramion. Przedsiębiorstwo opracowało inteligentne maszyny zaprogramowane do samodzielnego nastawiania uszkodzonych kości. Mediprintic zaprojektował także skaner, który analizuje stan przedramienia i ułatwia dobranie odpowiedniej, nowoczesnej ortezy.

Propozycja dla wczesnych i dojrzałych pomysłów

Program Akceleratora Innovatorium jest dostosowany do projektów na różnych etapach ich zaawansowania. Skorzystają z niego również osoby, które na razie mają tylko zalążek pomysłu. W zgłoszeniach rozróżniane są 4 poziomy dojrzałości przedsięwzięć: idea, analiza rynku, projekt B+R, produkt do skalowania. Poza wsparciem dla inicjatyw skupionych na sztucznej inteligencji, Akcelerator wspomoże też biznesy zorientowane na wykorzystanie technologii łańcuchów blokowych i big data. Uczestnicy poznają tematykę związaną z ochroną własności intelektualnej oraz z finansowaniem ze strony funduszy Venture Capital. Tegoroczna edycja programu zakończy się w grudniu.

Kooperacja biznesu i nauki

Organizatorem cyklu edukacyjnego jest Fundacja Innovatorium. To think tank, który koncentruje się na wspieraniu startupów wykorzystujących najnowsze rozwiązania technologiczne. Inicjatywa stara się pomagać w skutecznym kontakcie nauki i biznesu.

Akcelerator w 2023 roku jest finansowany z grantu Ministerstwa Edukacji i Nauki w ramach programu “Społeczna odpowiedzialność nauki”.

Herb Polski
Flaga Polski

Dofinansowanie ze środków Ministra Edukacji i Nauki w ramach programu Społeczna Odpowiedzialność Nauki –
Popularyzacja nauki i promocja sportu. Projekt: Akcelerator AI i Blockchain

DOFINANSOWANIE: 800 000 ZŁ
CAŁKOWITA WARTOŚĆ: 920 000,00 ZŁ