Wywiad: Prawny kontekst robotyzacji i sztucznej inteligencji – perspektywa Polski i Europy

Kategoria II
Wywiad: Prawny kontekst robotyzacji i sztucznej inteligencji – perspektywa Polski i Europy

Zapraszam do przeczytania rozmowy z dr Agnieszką Besiekierską, adwokatem, kierującą Praktyką Cyfrowej Gospodarki w warszawskim oddziale międzynarodowej kancelarii prawnej Noerr

Czy są już regulacje prawne robotyzacji i sztucznej inteligencji i czego się można spodziewać w tym obszarze w najbliższym czasie?

Agnieszka Besiekierska: Na razie w Europie nie ma jeszcze specjalnych regulacji dotyczących robotyzacji i AI. Nie oznacza to jednak, że nic się w tej materii nie dzieje. Od zeszłego roku pojawiają się konkretne inicjatywy Parlamentu Europejskiego oraz Komisji Europejskiej. Zaliczyć do nich trzeba przede wszystkim Rezolucję Parlamentu Europejskiego z lutego 2017 r. zawierającą zalecenia dla Komisji na temat przepisów dotyczących robotyki. Rezolucja przygotowana została na podstawie sprawozdania zespołu kierowanego przez Mady Delvaux, opiniowanego przez liczne komisje parlamentu, co świadczy o dużej wadze przykładanej do problemów robotyzacji i sztucznej inteligencji. W sprawozdaniu i w rezolucji położono nacisk na konieczność intensyfikacji badań nad sztuczną inteligencją. Bardzo ważne jest też sformułowanie, iż przyszłe regulacje nie mogą zahamować postępu w dziedzinie tak istotnej dla przyszłości gospodarki europejskiej. 

Pojawił się już także komunikat Komisji w sprawie AI. Czego on dotyczy? 

W kwietniu br. Komisja Europejska opublikowała komunikat ”Sztuczna Inteligencja dla Europy”, w którym mowa jest o europejskiej inicjatywie w dziedzinie AI, w tym o zapewnieniu „odpowiednich ram etycznych i prawnych”. Celem jest utrzymanie konkurencyjności UE w badaniach i rozwoju AI, między innymi dzięki bezpośrednim inwestycjom KE rzędu 1,5 mld EUR w tej dziedzinie w latach 2018-2020 w ramach programu ramowego Horyzont 2020 oraz zachętom dla państw członkowskich i przedsiębiorstw prywatnych. Strategię rozwoju sztucznej inteligencji uwzględnia się w kolejnych ramach finansowych dla lat 2021-2027. Wiosną br. rozpoczęła się organizacja Europejskiego Sojuszu na rzecz AI, który do końca br. ma przygotować we współpracy z Europejską Grupą Etyki ds. Nauki i Nowych Technologii projekt wytycznych dotyczących etyki AI. 

Na co zwracają dziś uwagę prawnicy w odniesieniu do AI?

Uwaga świata prawniczego koncentruje się obecnie na problemach etycznych AI, kwestiach odpowiedzialności za działania realizowane przez systemy czy urządzenia autonomiczne, a także na problemach decyzji dotyczących ludzi, ale podejmowanych bez udziału człowieka. Podkreślono to także we wspomnianej rezolucji, w której mowa jest o tym, że najważniejsze na obecnym etapie będzie sformułowanie zasad i regulacji dotyczących odpowiedzialności za działania autonomicznych urządzeń, robotów i systemów. Dotychczasowe regulacje dotyczące odpowiedzialności prawnej i etycznej nie są bowiem wystarczające. We wspomnianym komunikacje KE na połowę 2019 r. zapowiedziano przygotowanie wytycznych dotyczące interpretacji dyrektywy w sprawie odpowiedzialności za produkty wadliwe, pochodzącej jeszcze z 1985 r. 
Jednym z licznych elementów złożonej regulacyjnej układanki robotyzacji będzie też szersze udostępnianie danych przy jednoczesnym zapewnieniu pełnego poszanowania przepisów dotyczących ochrony danych osobowych. Trwa ożywiona dyskusja nad projektami zmiany dyrektywy w sprawie przetwarzania danych osobowych i ochrony prywatności w sektorze komunikacji elektronicznej z 2002 r., przy czym mowa jest nawet o rozporządzeniu zwanym w skrócie ePrivacy, nad którym wstępne prace toczyły się równolegle z przepisami RODO.

Jak w takim razie polskie firmy mają podchodzić do wdrażania AI pod kątem oczekiwanych regulacji?

Na dziś można zakładać, że pierwsze europejskie akty prawne wejdą w życie najwcześniej w latach 2020/2021. Raczej przyjmą postać dyrektywy unijnej, co oznacza, że będzie zwyczajowy czas na ich implementację do prawa krajowego. Wśród legislatorów w Europie – także w Polsce – dominuje więc postawa wyczekująca - nikt nie chce niepotrzebne wyprzedzać innych, wszyscy raczej czekają na wykrystalizowanie się poglądów i ogólnoeuropejską inicjatywę legislacyjną. 

Skoro na razie wszyscy zajmujący się sztuczną inteligencją i robotyką działają na podstawie przepisów ogólnych, to czy zauważa Pani jakieś zagrożenia „kursem kolizyjnym”, np. z regulacjami podatkowymi? 

Obszarów, w których już dziś zastanawiamy się nad problemami prawnymi związanymi ze sztuczną inteligencją jest bardzo wiele, wręcz nie sposób ich wymienić, ale jeśli chodzi o kwestie podatkowe, to na razie od rządów chcących wspierać rozwiązania innowacyjne trzeba raczej oczekiwać zachęt podatkowych, niż nowych podatków. W przyszłości może dojdzie do opodatkowania robotów, ale chyba dopiero wtedy, gdy zaczną się masowo pojawiać w dziedzinach, w których do tej pory opodatkowywano pracowników. 

Czy są więc dziś jakieś przepisy ograniczające robotyzację procesów?

Można tu przywołać doświadczenia regulacyjne związane z wdrażaniem chmury obliczeniowej. Mowa tu o ograniczaniu niektórych zastosowań przez przepisy specyficzne dla danej branży czy dla konkretnych rozwiązań.

Na co powinny zwracać uwagę firmy wdrażając AI? 
 
Na razie od strony prawnej jest to jeszcze odkrywanie nieznanych, nowych lądów, choć już pojawiają się ciekawe kwestie, przede wszystkim dotyczące odpowiedzialności, a co za tym idzie – ubezpieczeń. Kwestią kluczową jest np. kto odpowiada za bezpieczeństwo w konkretnym przypadku. Z punktu widzenia firm-użytkowników rozwiązań praktyka prawdopodobnie nie ulegnie zmianie – dostawca zawsze będzie starał się ograniczać swoją odpowiedzialność, o czym trzeba pamiętać przy formułowaniu, negocjowaniu i zawieraniu umów. 

Co z kwestiami prawa autorskiego? 

Według dzisiejszego ujęcia prawa autorskiego twórcą utworu jest zawsze człowiek, nie może być nim system czy urządzenie AI. Autorem może być człowiek, który stworzył rozwiązanie o charakterze indywidualnym, wspierając się sztuczną inteligencją.

A jak wygląda wpływ AI na stanowiska pracy w kontekście praw pracowniczych?

Stanowisko pracy zawsze może ulec likwidacji, także w wyniku postępu technicznego – ale to raczej domena polityki społecznej i prawa pracy, a nie regulacji dotyczących sztucznej inteligencji. 

A co z własnością danych w systemach stosujących AI? Np. bot pomaga firmie w rekrutacji – dane idą do dostawcy bota, z którym firma ma podpisaną stosowną umowę, on je przetwarza i dostarcza jej już obrobione. Producent mebli pozyskuje od swoich partnerów biznesowych dane dotyczące doznań i doświadczeń klientów. Kto jest właścicielem tych danych? Dostawca oprogramowania? Producent mebli czy może partner-pośrednik?

Dane należą albo do producenta urządzenia lub systemu, albo do ich użytkownika. Do tej pory firmy nie zdawały sobie sprawy z tego, że dane mają konkretną wartość i wiążą się z nim korzyści finansowe. Skoro na razie nie ma przepisów w tym zakresie, to trzeba te zagadnienia zawrzeć w umowie dotyczącej konkretnej usługi czy dostarczonego rozwiązania.

W kilku resortach w Polsce zaczynają się już prace nad strategią rozwoju sztucznej inteligencji. Czy powinno się już poruszać w niej także kwestie prawne?

Na pewno odniesienia do zagadnień prawnych czy też poświęcony im rozdział powinien się znaleźć w polskiej strategii, ale podkreślam konieczność aktywnego włączenia się w prace Parlamentu Europejskiego i Komisji nad przygotowywaniem rozwiązań europejskich. 

W jaką stronę idą kierunki regulacji np. w Niemczech? Czy już pojawiają się pytania o AI wśród Waszych klientów? 

Na razie w centrum uwagi są kwestie bezpieczeństwa produktu i związane z nim zagadnienia odpowiedzialności za ewentualną szkodę – kto i w jakim zakresie odpowiada: dostawca produktu czy użytkownik. Widoczne jest też zainteresowanie zagrożeniami dla praw człowieka – tu przypominają się cztery prawa robotyki Asimova. Wśród naszych klientów najwięcej dzieje się w branży finansowej, ale na razie raczej wewnątrz organizacji. Banki i ubezpieczyciele pracują już nad swoimi wewnętrznymi procedurami, czując się trochę pewniej w takim podejściu, bo w tej sferze nie muszą się zastanawiać nad odpowiedzialnością czy nad zaufaniem do dostawców.

Na koniec proszę powiedzieć jak wygląda zastosowanie AI w branży prawniczej?

Wszyscy zdają sobie sprawę, że potencjał i możliwości wykorzystania rozwiązań AI są ogromne. Spodziewam się, że jako pierwsze takie rozwiązania wdrożą wielkie globalne kancelarie prawne, na pewno pierwsze będą kancelarie amerykańskie. W środowisku prawniczym jest już spore zainteresowanie, ale na razie dominują obawy. Ironiczne można powiedzieć, że dla tej dość konserwatywnej branży dostatecznie dużym przełomem było już zastosowanie poczty elektronicznej. Zresztą podobne obawy związane były z zastosowaniem rozwiązań chmurowych. 

Dziękuję za rozmowę.
 

Dr Agnieszka Besiekierska jest adwokatem, counselem i szefem praktyki Cyfrowej Gospodarki w warszawskim biurze Noerr. Agnieszka jest cenionym prawnikiem z kilkunastoletnim doświadczeniem w zakresie prawa internetowego, e-commerce, IT i prawa telekomunikacyjnego. Posiada doświadczenie zarówno w zakresie dużych multijurysdykcyjnych projektów, jak również w bieżącym doradztwie. Była kilkakrotnie delegowana do pracy bezpośrednio u klientów, dzięki czemu zna i rozumie specyfikę pracy prawników w działach prawnych firm. Prezentuje interdyscyplinarne podejście do doradztwa: posiada certyfikaty Prince2 Foundation, ITIL Foundation oraz Agile PM Foundation.