Czy musimy się jej bać? Jaki jest aktualnie bilans korzyści i zagrożeń z nią związanych?
Jak może z niej korzystać zwykły użytkownik komputera? O sztucznej inteligencji rozmawialiśmy w środowej „Rozmowie dnia" Polskiego Radia PiK. Jej gościem był dr inż. Dawid Ewald z Wydziału Informatyki Uniwersytetu Kazimierza Wielkiego w Bydgoszczy. To na tej uczelni rozpocznie się w środę (6 marca) cykl otwartych wykładów poświęconych sztucznej inteligencji.
Maciej Wilkowski: Za ile lat wydarzy się taka sytuacje, że pan przyjdzie do radia, a zamiast mnie będzie tu siedzieć humanoid, nazwijmy go PIK100,1?
Dawid Ewald: Nie wiem, czy to trzeba liczyć w latach. Po drugie, nie wiem czy tu zasiądzie humanoid, bo to byłaby trochę strata energii. Może w ogóle nie musielibyśmy tutaj siedzieć, tylko wygenerowanie tego nagrania odbyłoby się gdzieś w chmurze, a my byśmy ewentualnie potwierdzili, czy wszystko poszło zgodnie z naszym planem. Ten humanoid, czy AI odtworzyłoby to w radiu już bez naszego udziału, abyśmy sobie spokojnie pili kawę i cieszyli się pracą wykonaną za nas.
Uściślijmy, że nie robimy sobie z państwa żartów. Jesteśmy tutaj obecni duchem i ciałem. Pan dostrzega w sztucznej inteligencji więcej korzyści czy zagrożeń.
Raczej więcej korzyści. Ja zawsze będę mówił, że narzędzie i skutki jego działania wynikają z tego, jak my go użyjemy. W związku z tym, jeżeli zaczniemy go używać w sposób etyczny, to ja nie widzę problemu w tym, żebyśmy rozwijali AI. Ona może przynieść skrócenie czasu pracy, zwiększenie wydajności pracy (...).
Moje skojarzenia ze sztuczną inteligencją są podobne do skojarzenia z atomem. Dostrzegam bardzo wiele plusów, ale jednak atom potrafi zabijać...
Młotek też potrafi zabijać, samochody też potrafią zabijać, a jednak ich używamy. Oczywiście powinniśmy patrzeć na sztuczną inteligencję, kontrolować sztuczną inteligencję
Tylko czy to się da robić...
W tej chwili powiedziałbym że się nie da, ale tutaj ktoś by mógł powiedzieć: no jak to się nie da, przecież to można zawsze wyłączyć z prądu. Oczywiście nie da się kontrolować tak doszczętnie, dokładnie tego, co robi ta inteligencja, ponieważ to jest inteligencja. Gdy my zamkniemy jedne drzwi, to ona sobie otworzy drugie drzwi, więc my możemy jedynie ograniczać jej autonomiczność. Ona może podejmować decyzję, ale czy wciśniemy przycisk – o tym zdecydujemy my. Możemy jej posłuchać. Ja bym AI używał, jako takiego pomocnika, przyjaciela kolegi, który mi podsuwa pomysły, który rozwiązuje za mnie problemy, ale to ja ostatecznie podejmuję decyzję.
Ale istnieje zagrożenie, że ona wymknie się spod kontroli...
I gdzie ucieknie? Do „Terminatora" to jeszcze chwileczkę, do Skynetu. W tej chwili oczywiście wojsko też używa sztucznej inteligencji do podejmowania decyzji, na przykład do wybierania celu. Tylko tu nie ma nic, poza możliwością oddania głosu. Sztuczna inteligencja powie, że zrobiłaby to i to, ale człowiek decyduje, więc przynajmniej dopóki my nie skrócimy tej drogi, czyli nie będziemy leniwi i nie powiemy: dobra, jak już tak wybrała, to niech tak zrobi, to myślę że zagrożenie jest minimalne.
Co na panu zrobiło największe wrażenie, jeśli chodzi o wykorzystanie sztucznej inteligencji?
Sama w sobie sztuczna inteligencja robi wielkie wrażenie. Jak się z nią porozmawia i jak ktoś spróbuje się trochę wysilić, to można sztuczną inteligencję oszukać. Ona ma pewne zabezpieczenia, żeby, np. nie generować treści nieodpowiednich dla dzieci, ale jesteśmy w stanie zmanipulować ją na tyle dobrze, żebyśmy te zabezpieczenia obeszli. Mamy więc takie poczucie w rozmowie ze sztuczną inteligencją, że rozmawiamy z człowiekiem, który też ma ułomności. Możemy zmanipulować sztuczną inteligencję, żeby zrobiła coś, czego nie powinna zrobić, bo jej zabroniliśmy, czy programiści zabronili. Przykład ze Stanów Zjednoczonych. Bot sprzedał samochód za jednego dolara, czy za sto dolarów, już nie pamiętam dokładnie, ważne, że transakcja była wiążąca. Ktoś oczywiście zabezpieczył bota, ale rozmówca był na tyle przebiegły, że go zmanipulował i uzyskał samochód za bardzo niska cenę (...).