اخیراً (در تاریخ 1 خردادماه 1403) شورای اتحادیه اروپا، قانون مهمی را تصویب کرد که هدف آن هماهنگ کردن قواعد مربوط به هوش مصنوعی، به اصطلاح قانون هوش مصنوعی (Artificial Intelligence Act یا AI Act) است. این قانون از رویکرد «مبتنی بر ریسک» پیروی می کند، به این معنی که هر چه خطر آسیب رساندن به جامعه بیشتر باشد، قوانین سخت گیرانه تر است. این اولین قانون (در نوع خود) در جهان است و می تواند یک استاندارد جهانی برای مقررات هوش مصنوعی تعیین کند.
هدف قانون جدید توسعه و استفاده از سیستم های هوش مصنوعی ایمن و قابل اعتماد در سراسر بازار واحد اتحادیه اروپا توسط بازیگران خصوصی و دولتی است. در عین حال، هدف آن تضمین احترام به حقوق اساسی شهروندان اتحادیه اروپا و تحریک سرمایه گذاری و نوآوری در زمینه هوش مصنوعی در اروپا است. قانون هوش مصنوعی فقط برای مناطقی در قوانین اتحادیه اروپا اعمال میشود و معافیتهایی را مانند سیستمهایی که منحصراً برای اهداف نظامی و دفاعی و همچنین برای اهداف تحقیقاتی استفاده میشوند، ارائه میکند.
-
ابزار و گزارش آماده تدوین نقشه راه بکارگیری هوش مصنوعی مولد در سازمان
نمره 5.00 از 55.000.000 ریالOriginal price was: 5.000.000 ریال.4.500.000 ریالCurrent price is: 4.500.000 ریال.
تصویب قانون هوش مصنوعی (همراستا با اصول هوش مصنوعی مسئول) یک نقطه عطف مهم برای اتحادیه اروپا است. این قانون برجسته که اولین قانون هوش مصنوعی در جهان میباشد، به یک چالش تکنولوژیکی جهانی می پردازد که همچنین فرصت هایی را برای جوامع و اقتصادهای اروپایی ایجاد می کند. با قانون هوش مصنوعی، اروپا بر اهمیت اعتماد، شفافیت و مسئولیتپذیری در برخورد با فناوریهای جدید تاکید میکند و در عین حال اطمینان میدهد که این فناوری به سرعت در حال تغییر، میتواند شکوفا شود و سطح نوآوری در کل اروپا را تقویت نماید.
طبقه بندی سیستمهای هوش مصنوعی به عنوان روشهای پرخطر و ممنوع
قانون جدید انواع مختلف هوش مصنوعی را بر اساس ریسک، دسته بندی مینماید. سیستمهای هوش مصنوعی که ریسک محدودی را ایجاد میکنند، مشمول تعهدات شفافیت بسیار سبک خواهند بود، در حالی که سیستمهای هوش مصنوعی با ریسک بالا مجاز خواهند بود، اما مشمول مجموعهای از الزامات و تعهدات برای دسترسی وسیع به بازار اتحادیه اروپا هستند. سیستمهای هوش مصنوعی مانند، دستکاری رفتارهای شناختی (cognitive behavioural manipulation) و امتیازدهی اجتماعی (social scoring) در اتحادیه اروپا ممنوع خواهند شد زیرا خطر آنها غیرقابل قبول تلقی میشود. همچنین این قانون استفاده از هوش مصنوعی را برای سیاستگذاری پیش بینی کننده مبتنی بر پروفایل و سیستم هایی که از داده های بیومتریک برای دسته بندی افراد بر اساس دسته بندی های خاص مانند نژاد، مذهب یا گرایشات خاص استفاده می کنند، ممنوع مینماید.
مدل های هوش مصنوعی (همه منظوره)
قانون هوش مصنوعی همچنین اشاره به مدلهای هوش مصنوعی غیر تخصصی (GPAI) دارد. مدلهای GPAI که ریسکهای سیستمی ندارند، مشمول برخی الزامات محدود خواهند بود (برای مثال در رابطه با شفافیت) اما آنهایی که ریسکهای سیستمی دارند، باید قوانین سختگیرانهتری را رعایت کنند.
معماری حاکمیتی (governance architecture) جدید هوش مصنوعی
برای اطمینان از اجرای صحیح قانون، چندین نهاد حاکمیتی به شرح ذیل تشکیل شده است:
- یک دفتر هوش مصنوعی در کمیسیون برای اجرای قوانین مشترک در سراسر اتحادیه اروپا
- هیئت علمی متشکل از کارشناسان مستقل برای حمایت از فعالیت های اجرایی
- هیئت هوش مصنوعی با نمایندگانی از کشورهای عضو برای مشاوره و کمک به کمیسیون در زمینه اعمال سازگار و مؤثر قانون هوش مصنوعی.
- یک انجمن مشاوره برای ذینفعان جهت ارائه تخصص فنی به هیئت مدیره هوش مصنوعی و کمیسیون مربوطه
جریمهها در حوزه هوش مصنوعی
جریمههای نقض قانون هوش مصنوعی به عنوان درصدی از گردش مالی سالانه شرکت متخلف در سال مالی قبل یا مبلغی از پیش تعیین شده، مشخص می شود که بالاتر است. شرکتهای کوچک و متوسط و استارت آپ ها تابع جرایم متناسب به خود هستند.
شفافیت و حمایت از حقوق اساسی
قبل از اینکه یک سیستم هوش مصنوعی پرخطر توسط برخی از نهادهای ارائه دهنده خدمات عمومی مستقر شود، باید تأثیر حقوق اساسی (fundamental rights) مورد ارزیابی قرار گیرد. این مقررات همچنین افزایش شفافیت را در مورد توسعه و استفاده از سیستمهای هوش مصنوعی پرخطر ارائه میکند. سیستمهای هوش مصنوعی پرخطر، و همچنین کاربران خاصی از یک سیستم هوش مصنوعی پرخطر که نهادهای عمومی هستند، باید در پایگاهداده اتحادیه اروپا برای سیستمهای هوش مصنوعی پرخطر ثبت شوند و کاربران سیستمهای هوش مصنوعی هنگامی که در معرض چنین سیستمی قرار میگیرند، باید قبلاً از آن مطلع باشند.
اقدامات در حمایت از نوآوری
قانون هوش مصنوعی یک چارچوب قانونی سازگار با نوآوری را فراهم می کند و هدف آن ترویج یادگیری نظارتی مبتنی بر شواهد است. قانون جدید الزام دارد که محیط آزمایشی امن و مجزا (sandbox) نظارتی هوش مصنوعی، که محیط کنترلشدهای را برای توسعه، آزمایش و اعتبارسنجی سیستمهای هوش مصنوعی خلاقانه است، ایجاد گردد. همچنین باید امکان آزمایش سیستمهای هوش مصنوعی نوآورانه در شرایط دنیای واقعی فراهم گردد.
قدمهای بعدی
این قانون پس از امضای روسای پارلمان اروپا و شورای اتحادیه اروپا، طی روزهای آینده در مجله رسمی اتحادیه اروپا منتشر و بیست روز پس از انتشار لازمالاجرا خواهد شد. مقررات جدید دو سال پس از لازمالاجرا شدن، با استثنائاتی برای مفاد خاص اعمال خواهد شد.
بروزرسانی (تاریخ 23 تیرماه 1404)
امروز نقطه عطف مهمی در تنظیم هوش مصنوعی (AI) است زیرا قانون هوش مصنوعی اتحادیه اروپا (EU) در مجله رسمی اتحادیه اروپا منتشر شده است. این قانون مهم، اولین چارچوب نظارتی جامع در جهان را برای هوش مصنوعی ایجاد میکند و زمینه را برای مقررات آتی هوش مصنوعی در داخل و خارج از اتحادیه اروپا فراهم میکند.
قانون هوش مصنوعی حدود 20 روز از تاریخ امروز در 2 اوت 2024 (12 مرداد 1403) لازم الاجرا خواهد شد. جدول زمانی برای اجرا به شرح زیر است:
- 2 فوریه 2025 (14 بهمن 1403): شیوه های ممنوعه هوش مصنوعی باید از بازار خارج شوند.
- 2 مه 2025 (12 اردیبهشت 1404): کدهای تمرین آماده خواهد شد.
- 2 آگوست 2025 (11 مرداد 1404): مدلهای هوش مصنوعی (GPAI) با هدف عمومی باید مطابقت داشته باشند. ساختار حاکمیتی (دفتر هوش مصنوعی، هیئت هوش مصنوعی اروپا، مقامات نظارت بر بازار ملی و غیره) باید وجود داشته باشد.
- 2 فوریه 2026 (13 بهمن 1404): کمیسیون اروپا قانون اجرایی را تصویب می کند، که مقررات مفصلی را تعیین می کند که الگویی برای طرح نظارت پس از بازار و فهرست عناصری که باید در این طرح گنجانده شود، ایجاد می کند.
- 2 اوت 2026 (11 مرداد 1405): همه قوانین قانون هوش مصنوعی، از جمله تعهدات برای سیستم های پرخطر تعریف شده در پیوست III (فهرست موارد استفاده پرخطر) قابل اجرا می شود. کشورهای عضو باید اطمینان حاصل کنند که مقامات ذیصلاح آنها حداقل یک جعبه ایمنی نظارتی عملیاتی هوش مصنوعی در سطح ملی ایجاد کرده اند.
- 2 اوت 2027 (11 مرداد 1406): تعهدات سیستم های پرخطر تعریف شده در پیوست I (فهرست قوانین هماهنگ سازی اتحادیه اروپا) اعمال می شود.