Unijne wytyczne dla godnej zaufania sztucznej inteligencji

Unijne wytyczne dla godnej zaufania sztucznej inteligencji

Specjalna grupa robocza powołana przez Komisję Europejską opublikowała 8 kwietnia 2019 „Etyczne wskazania dla tworzenia godnej zaufania sztucznej inteligencji”. Są one wynikiem dyskusji ponad pięćdziesięcioosobowej grupy specjalistów, korzystających z kilkuset komentarzy do przedstawionych w grudniu szkicu takich wskazań. Opublikowany dokument nie ma mocy prawnej, to opis zasad i pytań, na jakie twórcy sztucznej inteligencji powinni zwracać uwagę.  Na początku 2020 roku przedstawiane teraz zasady będą zmienione, w wyniku programu pilotażowego, wdrażanego od lata tego roku (ale na czym ten pilotaż będzie polegał jeszcze nie wiadomo).

Godne zaufania systemy AI, to wg przedstawionych zasad takie, które działają zgodnie z prawem, są etyczne i silne, czyli odporne na zakłócenia działania. W idealnej sytuacji wszystkie trzy elementy powinny być zgodne, ale może się okazać, że np. system prawny jest niewystarczający, żeby ochronić etyczne działanie AI. Ale docelowo należy je ze sobą harmonizować.

Te godne zaufania systemy AI (dalej pomijam sformułowanie „godne zaufania”, bo tylko o takich jest tutaj mowa) muszą być zgodne z podstawowymi wartościami unijnymi, dotyczącymi godności, autonomii i wolności ludzi i powinny działać na rzecz ich realizacji i wzmocnienia. AI nie powinna działać w sposób podważający podstawowe prawa i demokrację. To jest podstawa, z której dalej rozmaite rzeczy wynikają.

Cztery są główne zasady etyczne, które systemy AI mają przestrzegać:

a. Szacunek dla autonomii osoby ludzkiej (respect for human autonomy)
b. Zapobieganie szkodom (harm prevention)
c. Sprawiedliwość (fairness)
d. Zrozumiałość (explicability)

Autonomia osoby ludzkiej oznacza, że systemy AI mają ludzi wspomagać w ich wyborach i nie mogą ludzi zmuszać, manipulować nimi, oszukiwać ani warunkować. To na pewno będzie sprzeczne z działaniami programów marketingowych, manipulujących zachowaniami konsumentów i obywateli.

Zapobieganie szkodom oznacza, że systemy AI nie tylko nie powinny ludziom wyrządzać szkód fizycznych i psychicznych, ale również, że powinny być odporne na postępowanie zakłócające ich działanie i powodujące niechciane konsekwencje, czyli powinny być odporne na działania hakerów.

Sprawiedliwość to staranie o równe rozłożenie korzyści i kosztów sztucznej inteligencji na różne grupy społeczne i niedopuszczanie do dyskryminowania przez nią jakichkolwiek grup.

Zrozumiałość, tak jak my ją rozumiemy, jest trudna do osiągnięcia w systemach AI, ponieważ wiele z nich podejmuje dezycje w sposób dla nas niejasny (blackbox). W każdym jednak wypadku powinny być otwarcie komunikowane cele i możliwości systemu AI.

Z tych czterech zasad wynika siedem wymagań, które spełniać powinny systemy sztucznej inteligencji:

  1. Ludzka autonomia i nadzór nad systemami. Mają one wspomagać ludzką autonomię i prawa człowieka, a nie je zmniejszać.
  2.  Siła i bezpieczeństwo. Algorytmy AI mają być odporne na zakłócenia z zewnątrz i korygujące swoje błędy (a popełniające ich mało).
  3. Prywatność i kontrola nad własnymi danymi.
  4. Przezroczystość. To wymaganie związane ze zrozumiałością, dotyczy ujawniania rodzaju danych, podejmownaych decyzji i modelu biznesowego. Systemy AI nie powinny udawać ludzi, powinny się identyfikować jako systemy sztucznej inteligencji. W miarę możliwości powinny dawać uzasadnienia swoich decyzji.
  5. Różnorodność, sprawiedliwość i niedyskryminowanie ludzi.
  6.  Społeczny i ekologiczny dobrostan. Systemy AI powinny być używane dla pozytywnych zmian społecznych i zwiększania odpowiedzialności i równowagi ekologicznej.
  7. Odpowiedzialność. Należy stworzyć mechanizmy, które pozwalają na stwierdzanie odpowiedzialności systemu AI za określone rezultaty.

Wszystkie te zasady są szeroko wyjaśnione w linkowanym powyżej dokumencie, ale i tak są bardzo ogólne. Ich uzupłenieniem jest lista pond stu pytań, na które powinny odpowiadać osoby, tworzące systemy sztucznej inteligencji. Pytania dotyczą wszystkich zasad, np. „Czy przeprowadziłeś rozeznanie, czy system może mieć negatywny wpływ na podstawowe prawa obywatelskie?” do „Czy jasno komunikujesz użytkownikom kryteria,  na podstawie których system podejmuje decyzje?”

Te dziesiątki pytań rzeczywiście mogę spowodować, że osoby projektujące systemy AI będzie starała się stworzyć je tak, aby działały z pożytkiem dla ludzi i z poszanowaniem ich praw i autonomii. Przypuszczam, że z czasem, kiedy zobaczymy, jak to działa w praktyce, niektóre przynajmniej zasady zostaną zmieniona na przepisy prawne. Na razie to tylko dobra wola i sumienie twórców AI ma kierować ich zachowaniem.

Oczywiście, te reguły tworzenia godnej zaufania sz tucznej inteligencji nie spowodują, że Unia stanie się czołowym światowym graczem w dziedzinie AI. Jeśli jednak formułowane teraz reguły okażą się sensowne, okaża się, że skutecznie zapobiegają manipulowaniu ludźmi i szkodzeniu demokracji, to przypuszczalnie twórcy AI z innych obszarów, jeśli będą chcieli wchodzić na obszar Unii ze swoim oprogramowaniem, będą musieli do tych zasad nie przystosować.

Ja trzymam kciuki za tworzenie godnych zaufania systemów AI. Jeśli nie poddamy ich kontroli, to znajdziemy się  w świecie, gdzie można nami, jako ludźmi, konsumentami i obywatelami, dowolnie manipulować. W tym świecie demokracja, jeśli przetrwa, będzie wydmuszką, a sterować nami będą osoby posiadające władzę nad algorytmami.

Leave a reply

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *