AI Act. Sztuczna inteligencja i europejskie wartości

Ostatnia aktualizacja: 28.05.2024 12:11
Unia Europejska przyjęła pierwsze na świecie przepisy dotyczące sztucznej inteligencji – AI Act. Unijne rozporządzenie klasyfikuje AI pod kątem potencjalnego ryzyka dla użytkowników. Jak wpłyną te przepisy na nas, czego nie będziemy mogli robić w sieci przy użyciu sztucznej inteligencji?
Unia Europejska przyjęła pierwsze na świecie przepisy dotyczące sztucznej inteligencji  AI Act.
Unia Europejska przyjęła pierwsze na świecie przepisy dotyczące sztucznej inteligencji – AI Act. Foto: Shutterstock/CardIrin
  • Unia Europejska przyjęła pierwsze na świecie przepisy dotyczące sztucznej inteligencji. 
  • Rozporządzenie AI Act wyróżnia cztery stopnie zagrożeń. 
  • Wśród niedopuszczanych działań sztucznej inteligencji są np. rozpoznawanie twarzy w przestrzeniach publicznych. Położono nacisk na wartości europejskie. 
  • AI Act to przepis unijny, jednak jego zapisy kierowane są głównie w stronę przedsiębiorców korzystających ze sztucznej inteligencji, ale też wielkich gigantów technologicznych, które ją tworzą. 
  • Zwykli, indywidualni użytkownicy będą zobowiązani do oznaczania treści wygenerowanych przez AI. 

AI Act to pierwsze rozporządzenie Unii Europejskiej dotyczące zastosowania i rozwoju sztucznej inteligencji. AI już dziś wpływa na nasze życie i codzienność. Obecnie w kontekście tych przepisów najwięcej mówi się o kategoryzacji zagrożeń. Akt wymienia cztery takie stopnie: niedopuszczalny, wysoki, ograniczony i minimalny. 

AI Act - co jest zakazane, co dozwolone?

- AI Act to jest bardzo dobra próba podejścia do tematu sztucznej inteligencji z perspektywy po prostu bezpieczeństwa i ryzyk. Ten przepis jest w jakimś stopniu też zgodny z europejskimi wartościami - mówi prof. Aleksandra Przegalińska, ekspertka w dziedzinie sztucznej inteligencji, prorektorka Akademii Leona Koźmińskiego. - Dziś mamy modele AI, które pozwalają nam robić zakupy, rekomendują nam treści - to jest ok. Sztuczna inteligencja stosowana jest też w bankach np. do oceny ryzyka kredytowego. Ale są też rozwiązania, których AI Act zakazuje np. rozpoznawanie twarzy w przestrzeniach publicznych. Podział ryzyk wprowadza jakiś system myślenia o sztucznej inteligencji, która w dużej mierze jest dozwolona, ale jest taki jej wymiar, na który się nie zgadzamy, bo jest niezgodny z naszymi wartościami. 

Dużą uwagę przykładamy do przepisu mówiącego o niedopuszczalnym ryzyku w unijnym rozporządzeniu. - Najważniejsze w nim to zakaz podprogowych sugestii za pomocą AI, czyli doprowadzenia do tego, że nie wiemy, że sztuczna inteligencja nami manipuluje lub nam coś rekomenduje - wyjaśnia gościni Kamila Jasieńskiego. 


Posłuchaj
10:42 czwórka pierwsze słyszę 28.05.2024 aleksandra przegalińska 8.13.mp3 O unijnych przepisach AI Act opowiada Aleksandra Przegalińska (Pierwsze słyszę/Czwórka)

 

Aleksandra Przegalińska przywołuje wybory 2016 roku w Stanach Zjednoczonych, kiedy różnymi interwencjami i deepfake'ami sugerowano, na którego kandydata należy stawiać. AI Act tego zabrania. 

- Zakazane jest rozpoznawanie twarzy w przestrzeniach publicznych, taka mocna interwencja w prywatność, pobieranie tego, gdzie się człowiek znajduje i co robi - wyjaśnia. - Kolejny zakaz dotyczy systemów, które w jakiś sposób mogłyby zagrażać bezpieczeństwu, o ile nie są stosowne przez wojsko. Wojsko jest wyjęte spod tych regulacji, ono rządzi się swoimi prawami. 

Scoring społeczny - w Europie na to zgody nie ma

Dzięki AI Act nikt w Unii Europejskiej nie wdroży tzw. scoringu społecznego, czyli tzw. systemu zaufania społecznego, który monitoruje zachowania obywateli pod kątem zgodności z prawem i zasadami współżycie społecznego. - Dziś algorytmy w bankach, gdy staramy się o kredyt, naliczają nam punkty. To wąski zakres użycia - wyjaśnia Aleksandra Przegalińska. - Ten chiński system jest totalny: zbiera dane z całego zachowania obywateli, z zachowania ich bliskich, z tego z kim się przyjaźnią, jak pracują, jak się uczą ich dzieci i na tej podstawie klasyfikuje jako dobrych lub niedobrych obywateli. W Europie na to zgody nie ma. 

Przepisy dla przedsiębiorców?

AI Act kierowane jest do wszystkich obywateli Unii Europejskiej, choć przyglądając się tym przepisom, widać, że dotyczą one głownie przedsiębiorców, którzy korzystają ze sztucznej inteligencji, budują swoje produkty i usługi na AI, albo ją wytwarzają - jak wielcy giganci technologiczni. - Na nich nałożony jest obowiązek np. budowania modeli bardziej bezpiecznych, bardziej zrozumiałych dla ludzi. To oni będą musieli się tłumaczyć z tego, jak się z tych przepisów wywiązali pracując nad nowymi modelami sztucznej inteligencji - wyjaśnia ekspertka. - A takie modele powstają niemal co miesiąc. 

Oznacz treści AI

Jako zwykli użytkownicy sztucznej inteligencji, których możemy nazwać użytkownikami końcowymi, też jesteśmy zobowiązani do przestrzegania przepisów AI Act. - Będziemy mieli obowiązek pewnego rodzaju transparentności. Jeśli nagramy coś np. zrobimy jakimś systemem klon swojego głosu, co już jest możliwe i dużo osób to robi, albo będziemy używać cyfrowych awatarów czy generować śmieszne wideo - to będziemy mieć obowiązek oznaczenia, że to zostało wygenerowane przy użyciu sztucznej inteligencji. Chodzi o to, by nie doprowadzić do chaosu, dezinformacji. 

Niektóre z firm pracujących przy AI już wprowadziły takie oznaczenia. Zdaniem Czwórkowej ekspertki jednak nie będzie tu jednolitego systemu, bo treści jakie produkujemy przy użyciu sztucznej inteligencji są bardzo różne. Grafikę czy wideo możemy oznaczyć znakiem wodnym, trudniej tak oznaczyć tekst czy dźwięk. - W wielu przypadkach będzie to po prostu dopisane, częściowo będą to zapewne ludzkie deklaracje - ocenia Aleksandra Przegalińska. - To ma służyć uświadamianiu i transparentności. My na uczelni nie zabroniliśmy studentom używania sztucznej inteligencji np. przy ich pracach czy prezentacjach. Ale poprosiliśmy ich o informacje, w jakim stopniu AI została w nich wykorzystana. 

Czytaj także:

Na ile wystarczy AI Act?

Świat nowych technologii rozwija się bardzo szybko, mimo to profesorka Akademii Leona Koźmińskiego uważa, że unijne rozporządzenie starczy nam na dłuższy czas. - Ono jest bardzo ramowe. Sztuczna inteligencja to zestaw algorytmów wytworzonych na bazie statystyki, które szybko nie przejdą w stan bycia kompletnie nierozpoznawalnymi, świadomymi, emocjonalnymi maszynami - wyjaśnia. - To będzie coraz lepsze, ale w tym co już teraz znamy. To scenariusz na najbliższą dekadę, a może dłużej. 

Ekspertka zwraca uwagę na brak regulacji dotyczącej własności intelektualne w kontekście sztucznej inteligencji. Artyści, twórcy są zbulwersowani tym, że modele AI trenowane są na ich pracach, a oni nie mają na to wpływu. To kolejny aspekt, który wymaga zmian i zabezpieczenia praw osób twórczych. 

***

Tytuł audycji: Pierwsze słyszę

Prowadzi: Kamil Jasieński

Gościni: Aleksandra Przegalińska (ekspertka w dziedzinie sztucznej inteligencji, profesorka i prorektorka Akademii Leona Koźmińskiego)

Data emisji: 28.05.2024

Godzina emisji: 8.13

pj

Czytaj także

Kto to napisał? Sztuczna inteligencja nie rozpoznaje swoich treści

Ostatnia aktualizacja: 09.08.2023 13:20
Sztuczna inteligencja przestaje odróżniać teksty napisane przez samą siebie od tych napisanych przez człowieka. - Pracujemy nad uwzględnieniem opinii i obecnie badamy bardziej efektywne techniki pozwalające potwierdzić pochodzenie tekstu - zapowiadają twórcy chatbota GPT. 
rozwiń zwiń
Czytaj także

Jak rozmawiać ze zwierzętami? AI i bioakustyka przetłumaczą głosy zwierząt?

Ostatnia aktualizacja: 14.09.2023 09:54
Od lat ludzie dążą do tego, by zrozumieć głosy zwierząt. Chcemy wiedzieć, co nam mówią nasi domowi pupile, ptaki śpiewające za oknem czy dzikie zwierzęta. W tym może nam pomóc sztuczna inteligencja i bioakustyka. 
rozwiń zwiń
Czytaj także

Chip w mózgu? Elon Musk i jego rewolucyjny projekt

Ostatnia aktualizacja: 08.02.2024 09:40
Elon Musk po raz kolejny zadziwia świat. Za sprawą projektu jego firmy Neuralink chip w mózgu jest już faktem. Biznesmen ogłosił światu, że sukcesem zakończyła się operacja wszczepienia pierwszego implantu do mózgu człowieka. 
rozwiń zwiń