Sztuczna inteligencja (SI) zaczyna być wykorzystywana przez przedsiębiorców w coraz szerszym zakresie np. w celu personalizacji reklam lub kontaktu z klientami za pośrednictwem chatbotów. Rozwój sztucznej inteligencji jest pożądaną częścią unijnej strategii cyfrowej. Unia Europejska zakłada, że do 2030 roku 75 proc. przedsiębiorstw powinno korzystać z usług w chmurze, dużych zbiorów danych i sztucznej inteligencji[1]. Jednocześnie, zdecydowano się na uregulowanie kwestii systemów sztucznej inteligencji w celu zapobiegania wynikających z nich zagrożeń związanych z dyskryminacją i potencjalną nieprzewidywalnością.
Poziomy ryzyka systemów SI
Projekt przewiduje cztery poziomy ryzyka, które może wywoływać SI:
- niedopuszczalne ryzyko, które obejmuje np. systemy oceny obywateli (tzw. social scoring), a także te wykorzystujące manipulację i określone słabości osób;
- wysokie ryzyko, np. zdalna identyfikacja biometryczna „w czasie rzeczywistym”, SI przeznaczona do rekrutacji pracowników lub do oceny zdolności kredytowej osób fizycznych;
- ograniczone ryzyko np. chatboty, systemy umożliwiające rozpoznawanie emocji ludzkich oraz wykorzystujące technologię deepfake;
- minimalne ryzyko np. sztuczna inteligencja wykorzystywana w grach, filtrach spamu.
Stosowanie systemów SI powodujących niedopuszczalne ryzyko jest zakazane. Projekt nie przewiduje natomiast ograniczeń co do tych obarczonych minimalnym ryzykiem.
Jakie obowiązki czekają podmioty wykorzystujące systemy SI?
W przypadku SI powodującej ograniczone ryzyko nakłada się obowiązek informowania osób o wchodzeniu w interakcję z takimi systemami. Chodzi np. o możliwość weryfikacji czy chatbot obsługiwany jest przez sztuczną inteligencję, czy przez człowieka.