اتحادیه اروپا از سال ۲۰۱۸ شروع به تهیه و تدوین یک چارچوب قانونی برای هوش مصنوعی کرد و در آوریل ۲۰۲۱ پیشنویس قانون هوش مصنوعی را به عنوان بخشی از استراتژی دیجیتال خود ارائه داد. ¹ این پیشنویس پس از مشورتها و مذاکرات متعدد در می ۲۰۲۳ توسط کمیته بازار داخلی و کمیته آزادیهای مدنی پارلمان اروپا تصویب شد و در حال حاضر در انتظار توافق نهایی بین کمیسیون، پارلمان و شورای اروپا است. ² این قانون با هدف ایجاد اعتماد، اطمینان حقوقی و توسعه هوش مصنوعی به شیوهای مثبت، اخلاقی و مسئولانه طراحی شده است. ³ اهداف اصلی این قانون عبارتند از:
1- حفاظت از حقوق اساسی و ارزشهای اروپایی در برابر تأثیرات منفی هوش مصنوعی
2- تضمین ایمنی و کیفیت سیستمهای هوش مصنوعی و کاهش خطرات و آسیبهای احتمالی آنها
3- تشویق به نوآوری و رقابتپذیری در زمینه هوش مصنوعی و حمایت از توسعه و استفاده از آن در خدمت به مصالح عمومی
4- تقویت همکاری و هماهنگی بین کشورهای عضو و نهادهای اروپایی در زمینه هوش مصنوعی و ارتقای نقش رهبری اروپا در این حوزه در سطح جهانی
5- محتوا و ساختار قانون هوش مصنوعی اتحادیه اروپا
قانون هوش مصنوعی اتحادیه اروپا شامل ۱۰۵ ماده و ۱۷ ضمیمه است که در چهار بخش تقسیم میشوند:
بخش اول: مقررات کلی
در این بخش، تعاریف، اصول، محدوده و هدف قانون ارائه میشود. همچنین نقش و وظایف نهادهای اروپایی و ملی در زمینه هوش مصنوعی مشخص میشود. این بخش همچنین شامل مقرراتی در مورد انتقال دادهها و همکاریهای بینالمللی است.
بخش دوم: الزامات و محدودیتهای هوش مصنوعی
در این بخش، قانون بر اساس سطح خطر سیستمهای هوش مصنوعی، الزامات و محدودیتهایی را برای آنها تعیین میکند. این بخش شامل چهار دسته از سیستمهای هوش مصنوعی است:
دسته اول: سیستمهای هوش مصنوعی با خطر بالا
این دسته شامل سیستمهای هوش مصنوعی است که میتوانند به حقوق اساسی و امنیت افراد یا جامعه آسیب بزنند. برای مثال، سیستمهای هوش مصنوعی که در زمینههای حساسی مانند پزشکی، حمل و نقل، قضایی، امنیتی و اشتغال کاربرد دارند. این دسته از سیستمهای هوش مصنوعی باید از الزامات سختگیرانهای پیروی کنند که شامل موارد زیر است:
1 – داشتن یک نماینده قانونی در اتحادیه اروپا
2 – انجام یک ارزیابی خطر قبل از عرضه یا استفاده
3 – داشتن یک سیستم مدیریت کیفیت
4 – داشتن یک نشان هوش مصنوعی که نشان دهد که سیستم مطابق با قانون است
5 – ارائه اطلاعات کافی و دقیق به کاربران و متضررین
6 – ایجاد امکان کنترل انسانی بر روی سیستم
7 – رعایت اصول اخلاقی و حفاظت از حریم خصوصی و دادهها
8 – انجام یک بازبینی و نظارت مستمر بر عملکرد سیستم
دسته دوم: سیستمهای هوش مصنوعی با خطر محدود
این دسته شامل سیستمهای هوش مصنوعی است که میتوانند به اعتماد و انتظارات افراد تأثیر منفی بگذارند. برای مثال، سیستمهای هوش مصنوعی که در زمینههایی مانند تبلیغات، تعلیم و تربیت، تفریح و سرگرمی کاربرد دارند. این دسته از سیستمهای هوش مصنوعی باید از الزامات کمتری پیروی کنند که شامل موارد زیر است:
1 – ارائه اطلاعات کافی و دقیق به کاربران
2 – ایجاد امکان انتخاب و مخالفت برای کاربران
3 – رعایت اصول اخلاقی و حفاظت از حریم خصوصی و دادهها
دسته سوم: سیستمهای هوش مصنوعی با خطر پایین
این دسته شامل سیستمهای هوش مصنوعی است که میتوانند به کیفیت زندگی افراد تأثیر مثبت بگذارند. برای مثال، سیستمهای هوش مصنوعی که در زمینههایی مانند بهداشت، محیط زیست، فرهنگ و هنر کاربرد دارند. این دسته از سیستمهای هوش مصنوعی باید از الزامات اندکی پیروی کنند که شامل موارد زیر است:
1 – ارائه اطلاعات کافی و دقیق به کاربران
2 – رعایت اصول اخلاقی و حفاظت از حریم خصوصی و دادهها
دسته چهارم: سیستمهای هوش مصنوعی با خطر ناچیز
این دسته شامل سیستمهای هوش مصنوعی است که میتوانند به اهداف و مصالح عمومی خدمت کنند. برای مثال، سیستمهای هوش مصنوعی که در زمینههایی مانند امداد و نجات، مبارزه با جرم و تروریسم، حفظ صلح و امنیت کاربرد دارند. این دسته از سیستمهای هوش مصنوعی باید از الزامات نهایتی پیروی کنند که شامل موارد زیر است:
1 – داشتن یک نماینده قانونی در اتحادیه اروپا
2 – انجام یک ارزیابی خط
محدودیتهای قانون هوش مصنوعی اتحادیه اروپا قانون هوش مصنوعی اتحادیه اروپا برخی از کاربردهای هوش مصنوعی را به دلیل خلاف بودن با ارزشها و حقوق اساسی اروپایی ممنوع یا محدود کرده است. این محدودیتها عبارتند از:
ممنوعیت استفاده از هوش مصنوعی برای ایجاد یا تقویت تبعیض یا آسیب به حقوق انسان این ممنوعیت شامل سیستمهای هوش مصنوعی است که به صورت مستقیم یا غیرمستقیم باعث تبعیض یا آسیب به افراد یا گروههایی بر اساس جنسیت، نژاد، رنگ پوست، مذهب، سن، ملیت، زبان، اصل و نسب، وضعیت اجتماعی، اقتصادی، سیاسی، فرهنگی، جنسی یا هر ویژگی دیگری میشود. برای مثال، سیستمهای هوش مصنوعی که برای انجام اقدامات غیرقانونی یا تخلفی مانند تحریک به خشونت، تهدید، ارتکاب جرم، تجاوز، آزار و اذیت، اخاذی، افشای اطلاعات شخصی یا حساس، تحریف یا سوءاستفاده از اطلاعات یا اسناد، تقلب یا سرقت اطلاعاتی یا مالی، تحریف یا تغییر واقعیت یا تاریخچه، تحریف یا تغییر هویت یا صدا یا تصویر افراد یا موجودات زنده، تحریف یا تغییر نظرات یا احساسات یا رفتارهای افراد یا موجودات زنده، تحریف یا تغییر نتایج یا فرآیندهای علمی یا پژوهشی یا آموزشی یا امتحانی، تحریف یا تغییر اخبار یا رویدادها یا واقعیتها یا شواهد، تحریف یا تغییر قوانین یا مقررات یا معاهدات یا توافقات، تحریف یا تغییر ارزشها یا فرهنگها یا اعتقادات یا سنتها یا هنرها یا زبانها یا ادبیاتها، تحریف یا تغییر محیط زیست یا منابع طبیعی یا گونههای زیستی، تحریف یا تغییر سلامت یا بهداشت یا تغذیه یا رژیم غذایی یا ورزشی یا زیبایی یا آرامش یا خوشبختی افراد یا موجودات زنده، تحریف یا تغییر اخلاق یا اراده و…