poniedziałek, 06 wrzesień 2021 19:20

Długa droga do regulacji prawa wykorzystania sztucznej inteligencji

 Debata na temat rozpoznawania twarzy blokuje unijną ustawę o sztucznej inteligencji
Europejska Rada Ochrony Danych (EROD) i Europejski Inspektor Ochrony Danych (EIOD) połączyły siły, aby wezwać do ogólnego zakazu użycia wszelkich sztucznych inteligencji (AI), która identyfikują ludzi w przestrzeni publicznej. Oba organy zaleciły również zakaz wykorzystywania sztucznej inteligencji przy użyciu biometrii do kategoryzacji osób ze względu na pochodzenie etniczne, płeć, orientację polityczną lub seksualną, a także pod kątem rozpoznawania emocji danej osoby.


Stanowisko instytucji stoi w sprzeczności z pierwszymi próbami Komisji Europejskiej, dążącej do uregulowania technologii. Opublikowany w kwietniu projekt ustawy o sztucznej inteligencji UE wywołał ogromną dyskusję na temat jej implikacji dla rozwoju sztucznej inteligencji, zwłaszcza w kontekście przedsiębiorstw.


Zgodnie z ankietą CCS Insight dotyczącą inwestycji Senior Leadership IT Investment Survey z 2020 r. , ponad 80% przedsiębiorstw jest obecnie w fazie testowej lub produkcyjnej aplikacji wykorzystujących sztuczną inteligencję. Dla porównania w 2019 r. było to 55%. 58% planuje zwiększyć swoje inwestycje w tę technologię.


Ustawa o sztucznej inteligencji proponuje podejście do regulacji oparte na ryzyku, koncentrując się na wykorzystaniu sztucznej inteligencji, a nie na samej technologii. Wśród wielu obszarów, które obejmuje, klasyfikuje rozpoznawanie twarzy jako aplikację wysokiego ryzyka, co oznacza, że będzie podlegać „ścisłym ograniczeniom”, ale nie zostanie całkowicie zakazana, co teraz popierają strażnicy prywatności.


EROD i EIOD nie mają prawa tworzyć ani zmieniać przepisów, ale są czołowymi doradcami Komisji Europejskiej w kwestiach prywatności, odpowiedzialnymi za stosowanie zasad prywatności i nadzorowanie przestrzegania przez instytucje UE prawa o ochronie danych. Ich jednoznaczna interwencja wysyła bardzo silny sygnał do organów, które opracowują ostateczną formę rozporządzenia w sprawie sztucznej inteligencji.


Rozpoznawanie twarzy nadal dzieli


Sprzeczne stanowiska wewnątrz frakcji w UE potwierdzają, że systemy AI do rozpoznawania twarzy są nadal jedną ze spraw najbardziej polaryzujących biznes i polityków.


Z jednej strony technologia ta została szeroko rozpowszechniona w kilku obszarach, na przykład w naszych telefonach i komputerach, chociażby pomagając zastąpić hasła; na lotniskach w celu usprawnienia kontroli paszportowych; oraz w handlu detalicznym do ograniczania kradzieży sklepowych.


Z drugiej strony, wykorzystanie sztucznej inteligencji w celu zapewnienia bezpieczeństwa i nadzoru przez organy ścigania na całym świecie od budzi sprzeciw obrońców prywatności i wolności obywatelskich, zaniepokojonych naruszeniami prywatności i czerpaniem korzyści z technologii tego typu. Ponad rok temu Amazon, Microsoft i IBM wstrzymały sprzedaż technologii departamentom policji w odpowiedzi na te obawy i wezwały do większej regulacji w tym obszarze.


Wpływ unijnej ustawy o sztucznej inteligencji


Moim zdaniem „pierwsze na świecie” propozycje UE to fundamentalne kroki w dojrzewaniu sztucznej inteligencji w kilku kluczowych obszarach. Po pierwsze, obejmują zakazy w obszarach postrzeganych jako zagrożenie dla bezpieczeństwa, środków do życia i praw człowieka, a w szczególności wzywają do stosowania scoringu społecznego w sektorze publicznym. Zbudowane na fundamencie ustanowionym przez Ogólne rozporządzenie o ochronie danych (RODO), obejmują wysokie grzywny za naruszenia — do 6% globalnego obrotu — i, co ważne, nakładają konkretne obowiązki na firmy opracowujące aplikacje wysokiego ryzyka. Obowiązki obejmują zapewnienie wysokiej jakości danych, wolnych od stronniczości i dyskryminacji; nadzór ludzki nad projektowaniem, rozwojem i wdrażaniem; oraz zapewnienie między innymi firmom wysokich standardów dokumentacji w zakresie cyberbezpieczeństwa.


Ale w propozycjach są też rażące luki. Obejmują one brak przepisów dotyczących wykorzystania sztucznej inteligencji w wojsku lub wytycznych dotyczących zrównoważonego rozwoju dotyczących wpływu sztucznej inteligencji na środowisko, a także brak porad dla firm w zakresie przeprowadzania ocen zgodności. Zaskakująco niewiele jest również informacji o tym, jak egzekwowanie prawa będzie działać między UE a organami krajowymi państw człomnkowskich. Wiele z tych dodatkowych szczegółów pojawi się w ciągu najbliższych kilku lat, gdy propozycje zostaną wyrzucone w Parlamencie Europejskim i na szczeblach rządów krajowych.


Jednak jest prawdopodobne, że do 2023 r. ustawa o sztucznej inteligencji będzie silnym katalizatorem do przemyślenia sposobu, w jaki firmy projektują i wdrażają sztuczną inteligencję w kilku głównych obszarach. Po pierwsze, zobaczymy znacznie bardziej sformalizowany ludzki nadzór nad sztuczną inteligencją w firmach, co stworzy nowe obowiązki zawodowe lub być może całkowicie nowe role i funkcje, takie jak specjaliści ds. zgodności AI i inżynierowie uczenia maszynowego.


Po drugie, będzie wzrastać popularność narzędzi takich jak MLOps i platformy zarządzania cyklem życia. Już teraz obserwujemy szybki rozwój tego typu narzędzi, które staną się obowiązkowe na mocy przepisów dotyczących zastosowań AI wysokiego ryzyka, takich jak scoring kredytów, urządzenia medyczne lub pojazdy autonomiczne. Uważam jednak, że staną się one standardem również w szerszym zakresie aplikacji do uczenia maszynowego, ponieważ przedsiębiorstwa zaczną rywalizować o to, jak dobrze przestrzegają zaufanych zasad sztucznej inteligencji, w tym tych określonych w ustawie o sztucznej inteligencji.


Dążenie UE do narzucenie normy bezpieczeństwa produktu pod kątem AI pozostaje wyzwaniem, takim jak znak CE wskazujący, że przeprowadzono oceny zgodności. Przedsiębiorstwa będą korzystać w tym celu ze wsparcia takich firm jak Microsoft, IBM, Google Cloud, Amazon Web Services oraz specjalistycznych firm, takich jak Algorithmia i DataRobot, które dostarczają rozwiązania w tych obszarach.


Po trzecie, prawo znacznie bardziej skupi się na ryzyku biznesowym, w tym związanym z brakiem zgodności w systemach uczenia maszynowego — co brytyjskie Centrum ds. Etyki i Innowacji w zakresie Danych nazwało AI Assurance.
Szerszy zakres firm pomagających przedsiębiorstwom w zapewnianiu bezpieczeństwa AI w ramach zgodności z ustawą o sztucznej inteligencji powinien pomóc w dojrzewaniu rynku, zwłaszcza w opóźnionych sektorach, takich jak sektor publiczny oraz małe i średnie przedsiębiorstwa.


Najważniejsze jest to, że w ciągu ostatnich kilku lat wiele mówiło się o technologii etycznej i opartej na zasadach sztucznej inteligencji ze strony rządów, decydentów, firm i dostawców tychże technologii, ale w dużej mierze odbywało się to w próżni prawnej.


Perspektywy


Rozstrzygnięcie sprzecznych propozycji różnych frakcji UE dotyczących rozpoznawania twarzy zajmie trochę czasu na długiej drodze do regulacji sztucznej inteligencji. Ale pierwsze propozycje uregulowania tego sektora stanowią odważny krok we właściwym kierunku. Za nim powinny pójść badania i propozycje zrównoważonego podejścia do prawa technologii AI.


Wynik prawdopodobnie uruchomi próby osiągnięcia światowego standardu – chociaż Chiny pozostają dużym znakiem zapytania – nie tylko w zakresie postrzegania i regulowania nadzoru opartego na biometrii, ale szerzej – samej sztucznej inteligencji. Zwiększenie przyjęcia sztucznej inteligencji jest nieuniknione, a ponieważ społeczeństwo stara się stworzyć równowagę między bezpieczeństwem a prywatnością, między zabezpieczeniami a innowacjami, nadzór będzie niezbędną częścią biurokracji.


Źródło: Nick McQuire, CCS Insight

Chcesz porozmawiać? Wyślij dane kontaktowe.

Skorzystali z naszych usług