AI Act zmieni cyfrowy krajobraz Europy

Wejście w życie aktu ws. sztucznej inteligencji (tzw. AI Act) może wstrząsnąć praktykami zarządzania danymi w Unii Europejskiej. Wiele instytucji już teraz przygotowuje swoje rozwiązania, zapewniając bezpieczne wykorzystanie sztucznej inteligencji (AI). Magda Kotowska-Gawrylczyk, ekspertka ds. analityki danych z NatWest Group Polska, tłumaczy, dlaczego buduje odpowiedzialną technologię, nawet zanim AI Act stanie się obowiązującym prawem.

NatWest Group w Polsce wprowadza rozwiązania oparte o sztuczną inteligencję, które przynoszą oszczędności czasu klientom, jak i pracownikom i pracowniczkom, jednocześnie dbając o bezpieczne korzystanie z narzędzi. Takie narzędzia działają przejrzyście i dają ludziom kontrolę nad ich danymi.

AI Act wprowadza regulacje dotyczące sztucznej inteligencji, kategoryzując narzędzia AI według poziomów ryzyka i nakładając nowe obowiązki na rządy i firmy.

26 lutego Parlament Europejski może zatwierdzić AI Act (czyli unijny Akt o sztucznej inteligencji). Później ostatecznie zatwierdzi go Rada UE, a prawo zacznie obowiązywać 24 miesiące po ogłoszeniu.

Krajowi pracodawcy mogą już teraz rozpocząć przygotowania do przyjęcia regulacji na podstawie AI Act, który może znacząco wpłynąć na krajobraz sztucznej inteligencji, zarówno wśród użytkowników i użytkowniczek, jak i dostawców technologii.

Regulacja pojawiła się w momencie, gdy AI wydaje się obowiązkowym elementem rozwoju firm. Od 2017 roku 250% więcej menedżerów deklaruje wykorzystanie AI, a ci, którzy tego nie robią, mogą stracić (McKinsey & Company). Natomiast Goldman Sachs przewiduje, że generatywna sztuczna inteligencja może podnieść globalne PKB o 7%, a 300 milionów pracowników na całym świecie będzie korzystać ze sztucznej inteligencji.

Według badań jest nad czym pracować, bo jak wynika z raportu Accenture 2022 Tech Vision, tylko 35% globalnych konsumentów ufa temu, w jaki sposób sztuczna inteligencja jest wdrażana przez organizacje. Ponadto 77% uważa, że organizacje muszą zostać pociągnięte do odpowiedzialności za niewłaściwe wykorzystanie sztucznej inteligencji.

Regulacja kategoryzuje narzędzia sztucznej inteligencji według różnych poziomów ryzyka, od niskiego do niedopuszczalnego, i nakłada odpowiednie obowiązki na rządy i firmy korzystające z tych narzędzi. Narzędzia AI wysokiego ryzyka, w tym te wykorzystywane w infrastrukturze krytycznej, egzekwowaniu prawa, edukacji i systemach ogólnego przeznaczenia (GPAIS), takich jak Chat GPT, będą poddawane intensywnej kontroli.

Ekspertka ds. analityki danych i uczenia maszynowego tłumaczy czym jest sztuczna inteligencja i co czyni ją odpowiedzialną.

– Algorytmy sztucznej inteligencji uczą się wzorców z danych, np. takich jak zdjęcia owoców. Używają reguł matematycznych do rozpoznawania i przewidywania poprawnej odpowiedzi. Analizując okrągły kształt i obecność ogonka, mogą zidentyfikować jabłka. Przy większej ilości danych poprawiają swoją dokładność. Odpowiedzialna sztuczna inteligencja zapewniłaby, że zdjęcia owoców i inne dane byłyby wykorzystywane w sposób bezpieczny i zgodny z przepisami dotyczącymi prywatności. Dodatkowo odpowiedzialna sztuczna inteligencja będzie również wyjaśniać swoje decyzje. Wyjaśniałaby, dlaczego dany owoc jest jabłkiem lub pomarańczą, pomagając użytkownikom zrozumieć przewidywania sztucznej inteligencji. Przejrzystość pomaga budować zaufanie i zapewnia, że sztuczna inteligencja podejmuje uczciwe i bezstronne decyzje

mówi Magda Kotowska-Gawrylczyk, Data & Analytics Manager w NatWest Group Polska, tłumacząc, czym jest odpowiedzialna sztuczna inteligencja, o którą AI Act chce zadbać.

NatWest wprowadza rozwiązania oparte o sztuczną inteligencję z myślą o swoich klientach. W samej tylko Wielkiej Brytanii z ich usług korzysta co czwarty przedsiębiorca. Gdyby każda interakcja trwała tylko minutę, równałoby się to 95 latom.  

– Sztuczna inteligencja i automatyzacja skutecznie wspierają taką liczbą interakcji, pozwalając szybciej uzyskać informacje i oszczędzić czas. Dzięki automatyzacji zaoszczędziliśmy ponad 10 milionów funtów. Rozumiemy jednak, że wraz z potęgą sztucznej inteligencji przychodzi odpowiedzialność za zapewnienie jej etycznego wykorzystania – mówi Kotowska-Gawrylczyk.

Magda Kotowska-Gawrylczyk ocenia AI Act jako dowód na to, że odpowiedzialne podejście do sztucznej inteligencji jej zespołu było właściwym wyborem. – Nasze zastosowania obejmują zarówno poprawę obsługi klienta za pomocą chatbotów, jak i wykorzystanie uczenia maszynowego do zwiększenia ich cyberbezpieczeństwa.
 

Źródło

Skomentuj artykuł: