Europoseł Złotowski: pilnie potrzebujemy ram prawnych dla sztucznej inteligencji
– Rozwój sztucznej inteligencji AI i jego skutki to wielki znak zapytania, dlatego już dziś potrzebujemy ram prawnych, które będą chroniły obywateli i konsumentów, a firmom wyznaczą zakres odpowiedzialności. Odpowiedzią na to jest unijny Akt o Sztucznej Inteligencji. Trudno jednak dzisiaj przewidzieć wszystkie problemy, jakie stworzy powszechne stosowanie SI, dlatego z pewnością będziemy nowelizować te przepisy dosyć często – mówi europoseł Kosma Złotowski.
W środę (14 czerwca) w Strasburgu odbędzie się finalne głosowanie nad stanowiskiem Parlamentu Europejskiego ws. Aktu o Sztucznej Inteligencji, który wprowadza różne poziomy ryzyka dla technologii. Im wyższy poziom ryzyka, np. w kwestii bezpieczeństwa obywateli, tym bardziej dany obszar ma być uregulowany (z uwzględnieniem wyjątku dla wojska), a im niższy, tym większa swoboda działalności. Jeśli PE da zielone światło dla nowych przepisów, to jeszcze tego samego dnia rozpoczną się negocjacje z Radą i Komisją nad ostateczną wersją regulacji.
Regulacje prawne nie będą nadążać za rozwojem AI
Złotowski jest jedynym polskim europosłem, który pracował w PE nad nowymi przepisami. – Dziś nie do końca rozumiemy jeszcze, jak wielkie zmiany przyniesie społeczeństwu i gospodarce oraz jak szybko będzie rozwijała się sztuczna inteligencja. Pojawienie się ChatGPT i innych modeli generatywnych uzmysłowiło jednak wszystkim, że czeka nas rewolucja. Eksperci twierdzą, że jesteśmy dzisiaj na podobnym etapie rozwoju tej technologii, z jakim mieliśmy do czynienia w przypadku komputerów w latach 90. ubiegłego wieku. Technologia więc wciąż jest młoda, ale wiemy też, że rozwija się w niesamowicie szybkim tempie i widzimy, jak ogromny ma potencjał. Wiemy też, że będzie stosowana prędzej czy później w każdej dziedzinie życia, którą można scyfryzować – powiedział.
Dodał, że dlatego można się spodziewać, że te regulacje nie będą nadążały za tempem rozwoju. – To niezwykle ważne, abyśmy je jednak przyjęli już dziś i wykonali ten pierwszy krok jak najszybciej. Akt o sztucznej inteligencji nie został pomyślany jako regulacja, która będzie obowiązywać w niezmienionym kształcie przez lata, ale ma być modyfikowana w efekcie przeglądu jej skuteczności, który KE musi regularnie wykonywać. Chcemy powiedzieć, że ta technologia może być czasami niebezpieczna, że UE będzie stać na straży bezpieczeństwa użytkowników, a jednocześnie chcemy aby ta technologia się rozwijała, także w Europie, a nie tylko w USA czy Chinach – powiedział.
Dostęp nie tylko dla gigantów, ale i mniejszych firm
Złotowski przyznaje, że wokół prac nad przepisami obserwowany jest lobbing dużych firm technologicznych. – Zależy im na dużej swobodzie rozwoju AI. Nam z kolei zależało, żeby nie tylko wielkie korporacje mogły się tym zajmować, ale także małe i średnie firmy miały ułatwiony punkt startu dla projektowania algorytmów sztucznej inteligencji. Ta regulacja stara się otworzyć drzwi MŚP, które zdają sobie sprawę, że aby sprostać konkurencji na rynku, będą musiały wykorzystywać sztuczną inteligencję – powiedział.
Europoseł uważa, że AI będzie obszarem rywalizacji, jak i współpracy między Unią Europejską a USA. – Amerykańskie firmy dzisiaj przodują w rozwoju sztucznej inteligencji, a my dziś przodujemy w kwestii regulacji. Musimy się od siebie uczyć, a nie walczyć ze sobą. Potrzebne jest globalne partnerstwo państw demokratycznych w zakresie AI - minimalne standardy etyczne dla jej rozwoju powinny być wspólne. Organizacje takie jak OECD to dobre forum, żeby je wypracować – powiedział.
Obawy co do Rosji czy Chin
Przyznaje jednocześnie, że są także państwa, takie jak np. Rosja czy Chiny, które chcą i mogą wykorzystywać sztuczną inteligencję, aby ingerować w procesy demokratyczne w UE lub jako broń.
– Istnieją szczególe obawy co do Chin, bo Rosja na razie nie sprawia wrażenia państwa, które rozwinęło te technologię do poziomu, który byłby dla nas niebezpieczny. Tymczasem Pekin wykorzystuje sztuczną inteligencję przeciwko własnym obywatelom, do tzw. social scoringu, czyli oceny przydatności obywatela dla społeczeństwa ChRL – powiedział.
– Poważnym zagrożeniem, jakie niesie ta technologia, jest podejmowanie decyzji wyłącznie przez sztuczną inteligencję i implementacja tych wyników bez udziału czy kontroli ze strony człowieka. To z całą pewnością może być niebezpieczne. Dlatego mówimy też w tym akcie bardzo dużo o tym, że algorytmy powinny być transparentne, szczególnie jeśli wykorzystują je instytucje publiczne. Materia jest jednak tak skomplikowana, że ich działanie jest często zrozumiałe tylko dla wysokiej klasy specjalistów. Dlatego w procesie edukacji cyfrowej wątek AI musi być uwzględniony – powiedział.