Prawo

Warto wiedzieć

4 godziny temu  25.11.2024, ~ Michał Żak - ,   Czas czytania 5

Sztuczna inteligencja zmienia prawodawstwo
Strona 1 z 2

Akt o Sztucznej Inteligencji (AI Act) to pionierskie rozporządzenie Unii Europejskiej. Za naruszenie przepisów przewidziano surowe sankcje, sięgające nawet do 6% globalnych rocznych przychodów firmy.

Dynamicznie rośnie liczba rozwiązań, które w sposób automatyczny kontrolują wykorzystanie jak i rozwój sztucznej inteligencji. To odpowiedź między innymi na dezinformację w postaci dystrybucji fałszywych informacji, zdjęć czy filmów dystrybuowanych w internecie ale także wzrost liczby cyberataków na firmy i instytucje, w czasie których używa się właśnie różnego rodzaju AI. Zmienia się także prawodawstwo, które ma kontrolować wykorzystanie sztucznej inteligencji czego przykładem jest AI ACT uchwalony przez Parlament Europejski.

Oczywiście istnieją już aplikacje oraz narzędzia nadzorujące działanie sztucznej inteligencji, a ich liczba rośnie wraz z rozwojem tej technologii oraz zwiększeniem potrzeby nadzoru nad nimi. Takie aplikacje są wykorzystywane do monitorowania, oceny oraz zapewnienia, że algorytmy AI działają zgodnie z założeniami, przestrzegają standardów etycznych, uchwalonych przepisów a także nie wykazują niepożądanych odchyleń lub błędów. To różnego rodzaju platformy, które automatycznie analizują działanie sztucznej inteligencji. Są także wykorzystywane przy projektowaniu nowych funkcjonalności AI.

- Historie o kandydacie na wiceprezydenta związane z wykorzystywaniem dzieci, kolportowane w czasie ostatnich wyborów w USA, słynne zdjęcia papieża w futrzanej kurtce czy prezydentów Trumpa i Bidena wspólnie grillujących to tylko niektóre przykłady dezinfomacji tworzonych i dystrybuowanych z użyciem AI. Ale sztuczna inteligencja jest także narzędziem używanym przez cyberprzestępców do przeprowadzania ataków na firmy i instytucje, które mogą prowadzić do strat finansowych, ale także zagrożenia życia ludzkiego - komentuje Przemysław Wójcik, ekspert ds. cyberbezpieczeństwa, prezes AMP SA.

Nie ma odwrotu od rozwoju sztucznej inteligencji szczególnie, że przynosi ona także korzyści nie tylko zagrożenia. SI pozwala na automatyzację powtarzalnych zadań, co zwiększa wydajność i oszczędza czas. Może przetwarzać ogromne zbiory danych i dostarczać cennych wniosków, co wspomaga podejmowanie decyzji opartych na faktach. Dzięki SI można dostosować oferty i komunikację do indywidualnych potrzeb użytkowników, poprawiając doświadczenie klienta. Wspiera rozwój nowych technologii i produktów, np. w medycynie (np. diagnoza), transporcie (autonomiczne pojazdy) czy edukacji (spersonalizowane nauczanie). Wykorzystanie SI w systemach monitoringu, rozpoznawania twarzy czy analizy zagrożeń może poprawić bezpieczeństwo w wielu dziedzinach. To tylko niektóre przykłady, które jednak są dowodem na to, że AI obok wielu korzyści generuje także zagrożenia.

Człowiek stara się kontrolować AI

Tym bardziej więc istotny jest nadzór nad jej wykorzystaniem. Akt o Sztucznej Inteligencji (AI Act) to pionierskie rozporządzenie Unii Europejskiej, które wprowadza kompleksowe ramy prawne regulujące rozwój i stosowanie systemów AI. Jego główne założenia mają na celu ochronę praw obywateli, zapewnienie bezpieczeństwa oraz promowanie etycznego i odpowiedzialnego korzystania z AI. Na szczeblu unijnym powołany zostanie **Europejski Urząd ds. Sztucznej Inteligencji** (European Artificial Intelligence Board), który będzie koordynować działania i zapewniać spójność wdrażania regulacji. Za naruszenie przepisów AI Act przewidziano surowe sankcje, sięgające nawet do 6% globalnych rocznych przychodów firmy, co sprawia, że jest to jedno z bardziej restrykcyjnych rozporządzeń na świecie.

Jak karać AI?

Jeśli system AI popełnia błędy lub działa w sposób nieetyczny, najprostszą formą „kary” jest jego zawieszenie lub wyłączenie. Przykładem może być wycofanie go z użytku, np. jeśli chatbot rozprzestrzenia dezinformację, jego twórcy mogą go zablokować lub przeprogramować. AI może być „ukarane” poprzez aktualizacje zmieniające jej działanie, w tym przez nałożenie dodatkowych restrykcji, np. ograniczenie dostępu do niektórych danych lub zmniejszenie autonomii. Taka zmiana pozwala na pozostawienie AI w użyciu, ale z wyeliminowaniem jej potencjalnie szkodliwych zachowań.

- Ponieważ AI jest narzędziem stworzonym przez ludzi, odpowiedzialność prawna i finansowa spada na twórców lub właścicieli systemu. Przykładowo, firmy mogą być ukarane grzywną lub ograniczeniem możliwości działania, jeśli ich system AI narusza prawo, np. poprzez stosowanie niedozwolonych algorytmów nadzoru. W niektórych sytuacjach można nałożyć na twórców AI obowiązek naprawienia szkód wyrządzonych przez system. Przykładem jest sytuacja, gdy AI wprowadza w błąd klientów – w takim przypadku organizacja może zostać zobowiązana do zrekompensowania strat osobom poszkodowanym. W przypadkach, gdy system AI jest potencjalnie niebezpieczny, jego użycie może zostać ograniczone do „piaskownicy”, czyli kontrolowanego środowiska, gdzie może działać bez dostępu do prawdziwych danych. Dzięki temu można przetestować i poprawić działanie systemu, zanim zostanie on ponownie wdrożony na szeroką skalę. - komentuje ekspert ds. cyberbezpieczeństwa.

Komentarze (0)

dodaj komentarz
    Nie ma jeszcze komentarzy...
do góry strony