Ethics by desing w projektowaniu rozwiązań opartych na AI – pięć zasad etycznych

12.8.2024

Jedną z najcenniejszych umiejętności projektowania rozwiązań AI jest umiejętność przewidywania konsekwencji zastosowań AI oraz uczenia maszynowego, w tym zrozumienie możliwych skutków tych zastosowań dla społeczeństwa. Obecne, negatywne konsekwencje, które możemy obserwować globalnie w przypadku chociażby mediów społecznościowych, są właśnie wynikiem braku myślenia o konsekwencjach. Konieczne jest przyjęcie humanocentrycznej koncepcji AI. Skoncentrowana na człowieku sztuczna inteligencja musi być zaprojektowana i rozwijana w sposób zgodny z wartościami i zasadami etycznymi społeczeństwa lub społeczności, na którą oddziałuje.

W praktyce ethics by design, czyli projektowanie etycznych rozwiązań w systemach wykorzystujących AI, oznacza inaczej „etykę od samego początku”. Chodzi o wprowadzanie założeń etycznych do nowo powstających systemów wykorzystujących AI już na etapie ich projektowania, w tym przeniesienie moralnej odpowiedzialności za skutki działań systemów uczenia maszynowego na projektantów tych systemów.

Ethics by design jest kluczową koncepcją w europejskim podejściu do AI, w którym etyczne i prawne rozwiązania kształtują bezpieczną i skierowaną ku człowiekowi algorytmiczną społeczność. W ramach tej koncepcji powstaje wiele programów i prowadzonych jest wiele projektów na rzecz „etyczności” AI. Etyczność tworzonego systemu powinna być jednym z obowiązkowych wymagań dla tego systemu, obok niezawodności i integralności, w celu zapobiegania tym samym szkodom powstałym po wdrożeniu rozwiązania wykorzystującego AI.

Pięć zasad etycznych, stanowiących podstawę Good AI Society, oraz wiele rekomendacji do oceny, rozwoju i wspierania „etycznej” AI proponuje L. Floridi. Na pięć filarów „dobrego społeczeństwa SI” składają się:

  1. Czynienie dobra (beneficence), rozumiane jako wspieranie dobrobytu, ochrona godności i działanie na rzecz planety,
  2. Nieczynienie krzywdy (poszanowanie prywatności, zapewnienie bezpieczeństwa, ostrożność w projektowaniu rozwiązań AI),
  3. Zachowanie metaautonomii człowieka, czyli pozostawienie kontroli w jego rękach i odwracalność procesów dotyczących autonomii maszyny na każdym etapie jej działania,
  4. Sprawiedliwość (wyeliminowanie niesprawiedliwej dyskryminacji, sprawiedliwy podział i dystrybucja dóbr, wspieranie solidarności) oraz
  5. „Wyjaśnialność” (explicability) tożsama z umożliwieniem zrozumienia działania AI (jako odpowiedź na pytanie „jak to działa?”), jej rozliczalnością, czyli możliwością przypisania odpowiedzialności za konkretne działania AI (jako odpowiedź na pytanie „kto jest odpowiedzialny za to, że tak działa?”), a także jej transparentnością (jako odpowiedź na pytanie „dlaczego to tak działa?”).

Godna zaufania i odpowiedzialna sztuczna inteligencja to jednak coś więcej niż odznaczenie odpowiednich pól na liście kontrolnej bądź nawet zaprojektowanie w systemie dodatkowych funkcji lub przycisków odwracających autonomię AI. Oprócz ethics by design (etyki w projektowaniu rozwiązań) potrzebna jest ethics for design (etyka dla projektowania), rozumiana jako standardy i ścieżki certyfikacji, jasno wyznaczone kodeksy postępowania, gwarantujące integralność badań, projektowania, konstruowania, stosowania i zarządzania systemami wykorzystującymi rozwiązania AI.

Katarzyna Głąb
Trainer