هوش مصنوعی

قانون هوش مصنوعی (Artificial Intelligence Act) چیست؟

قانون هوش مصنوعی

اخیراً (در تاریخ 1 خردادماه 1403) شورای اتحادیه اروپا، قانون مهمی را تصویب کرد که هدف آن هماهنگ کردن قواعد مربوط به هوش مصنوعی، به اصطلاح قانون هوش مصنوعی (Artificial Intelligence Act یا AI Act) است. این قانون از رویکرد «مبتنی بر ریسک» پیروی می کند، به این معنی که هر چه خطر آسیب رساندن به جامعه بیشتر باشد، قوانین سخت گیرانه تر است. این اولین قانون (در نوع خود) در جهان است و می تواند یک استاندارد جهانی برای مقررات هوش مصنوعی تعیین کند.

هدف قانون جدید توسعه و استفاده از سیستم های هوش مصنوعی ایمن و قابل اعتماد در سراسر بازار واحد اتحادیه اروپا توسط بازیگران خصوصی و دولتی است. در عین حال، هدف آن تضمین احترام به حقوق اساسی شهروندان اتحادیه اروپا و تحریک سرمایه گذاری و نوآوری در زمینه هوش مصنوعی در اروپا است. قانون هوش مصنوعی فقط برای مناطقی در قوانین اتحادیه اروپا اعمال می‌شود و معافیت‌هایی را مانند سیستم‌هایی که منحصراً برای اهداف نظامی و دفاعی و همچنین برای اهداف تحقیقاتی استفاده می‌شوند، ارائه می‌کند.

تصویب قانون هوش مصنوعی (همراستا با اصول هوش مصنوعی مسئول) یک نقطه عطف مهم برای اتحادیه اروپا است. این قانون برجسته که اولین قانون هوش مصنوعی در جهان می‌باشد، به یک چالش تکنولوژیکی جهانی می پردازد که همچنین فرصت هایی را برای جوامع و اقتصادهای اروپایی ایجاد می کند. با قانون هوش مصنوعی، اروپا بر اهمیت اعتماد، شفافیت و مسئولیت‌پذیری در برخورد با فناوری‌های جدید تاکید می‌کند و در عین حال اطمینان می‌دهد که این فناوری به سرعت در حال تغییر، می‌تواند شکوفا شود و سطح نوآوری در کل اروپا را تقویت نماید.

قانون هوش مصنوعی اتحادیه اروپا (عکس تولید شده توسط هوش مصنوعی مولد)
قانون هوش مصنوعی اتحادیه اروپا (عکس تولید شده توسط هوش مصنوعی مولد)

طبقه بندی سیستم‌های هوش مصنوعی به عنوان روش‌های پرخطر و ممنوع

قانون جدید انواع مختلف هوش مصنوعی را بر اساس ریسک، دسته بندی می‌نماید. سیستم‌های هوش مصنوعی که ریسک محدودی را ایجاد می‌کنند، مشمول تعهدات شفافیت بسیار سبک خواهند بود، در حالی که سیستم‌های هوش مصنوعی با ریسک بالا مجاز خواهند بود، اما مشمول مجموعه‌ای از الزامات و تعهدات برای دسترسی وسیع به بازار اتحادیه اروپا هستند. سیستم‌های هوش مصنوعی مانند، دستکاری رفتارهای شناختی (cognitive behavioural manipulation) و امتیازدهی اجتماعی (social scoring) در اتحادیه اروپا ممنوع خواهند شد زیرا خطر آنها غیرقابل قبول تلقی می‌شود. همچنین این قانون استفاده از هوش مصنوعی را برای سیاست‌گذاری پیش بینی کننده مبتنی بر پروفایل و سیستم هایی که از داده های بیومتریک برای دسته بندی افراد بر اساس دسته بندی های خاص مانند نژاد، مذهب یا گرایشات خاص استفاده می کنند، ممنوع می‌نماید.

مدل های هوش مصنوعی (همه منظوره)

قانون هوش مصنوعی همچنین اشاره به مدل‌های هوش مصنوعی غیر تخصصی (GPAI) دارد. مدل‌های GPAI که ریسک‌های سیستمی ندارند، مشمول برخی الزامات محدود خواهند بود (برای مثال در رابطه با شفافیت) اما آن‌هایی که ریسک‌های سیستمی دارند، باید قوانین سخت‌گیرانه‌تری را رعایت کنند.

معماری حاکمیتی (governance architecture) جدید هوش مصنوعی

برای اطمینان از اجرای صحیح قانون، چندین نهاد حاکمیتی به شرح ذیل تشکیل شده است:

  • یک دفتر هوش مصنوعی در کمیسیون برای اجرای قوانین مشترک در سراسر اتحادیه اروپا
  • هیئت علمی متشکل از کارشناسان مستقل برای حمایت از فعالیت های اجرایی
  • هیئت هوش مصنوعی با نمایندگانی از کشورهای عضو برای مشاوره و کمک به کمیسیون در زمینه اعمال سازگار و مؤثر قانون هوش مصنوعی.
  • یک انجمن مشاوره برای ذینفعان جهت ارائه تخصص فنی به هیئت مدیره هوش مصنوعی و کمیسیون مربوطه

جریمه‌ها در حوزه هوش مصنوعی

جریمه‌های نقض قانون هوش مصنوعی به عنوان درصدی از گردش مالی سالانه شرکت متخلف در سال مالی قبل یا مبلغی از پیش تعیین شده، مشخص می شود که بالاتر است. شرکت‌های کوچک و متوسط و استارت آپ ها تابع جرایم متناسب به خود هستند.

شفافیت و حمایت از حقوق اساسی

قبل از اینکه یک سیستم هوش مصنوعی پرخطر توسط برخی از نهادهای ارائه دهنده خدمات عمومی مستقر شود، باید تأثیر حقوق اساسی (fundamental rights) مورد ارزیابی قرار گیرد. این مقررات همچنین افزایش شفافیت را در مورد توسعه و استفاده از سیستم‌های هوش مصنوعی پرخطر ارائه می‌کند. سیستم‌های هوش مصنوعی پرخطر، و همچنین کاربران خاصی از یک سیستم هوش مصنوعی پرخطر که نهادهای عمومی هستند، باید در پایگاه‌داده اتحادیه اروپا برای سیستم‌های هوش مصنوعی پرخطر ثبت شوند و کاربران سیستم‌های هوش مصنوعی هنگامی که در معرض چنین سیستمی قرار می‌گیرند، باید قبلاً از آن مطلع باشند.

اقدامات در حمایت از نوآوری

قانون هوش مصنوعی یک چارچوب قانونی سازگار با نوآوری را فراهم می کند و هدف آن ترویج یادگیری نظارتی مبتنی بر شواهد است. قانون جدید الزام دارد که محیط آزمایشی امن و مجزا (sandbox) نظارتی هوش مصنوعی، که محیط کنترل‌شده‌ای را برای توسعه، آزمایش و اعتبارسنجی سیستم‌های هوش مصنوعی خلاقانه است، ایجاد گردد. همچنین باید امکان آزمایش سیستم‌های هوش مصنوعی نوآورانه در شرایط دنیای واقعی فراهم گردد.

قدم‌های بعدی

این قانون پس از امضای روسای پارلمان اروپا و شورای اتحادیه اروپا، طی روزهای آینده در مجله رسمی اتحادیه اروپا منتشر و بیست روز پس از انتشار لازم‌الاجرا خواهد شد. مقررات جدید دو سال پس از لازم‌الاجرا شدن، با استثنائاتی برای مفاد خاص اعمال خواهد شد.

4.7/5 - (8 امتیاز)

نویسنده

روزبه امیری

دکتری مهندسی صنایع دانشگاه علم و صنعت با بیش از 20 عنوان مقالات علمی و نشریات بین المللی و همچنین 15 سال سابقه کار در حوزه‌های مدیریت استراتژیک، تحقیق و توسعه، مدیریت دانش و تحول راهبردی.

نظر دهید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

راهنمای محصولات ناربن در حوزه جوایز تعالی/ کیفیت

عنوان جایزه | مدل

اظهارنامه

پرسشنامه خودارزیابی

ابزار تحلیل پرسشنامه

پروژه‌های بهبود

📌 جایزه ملی کیفیت ایران

برگزارکننده: سازمان ملی استاندارد
مدل: کیفیت جهان اسلام

اظهارنامه آماده سطح اهتمام
اظهارنامه سطح اشتهار/ تندیس

📌 جایزه ملی تعالی و پیشرفت

برگزارکننده: مرکز ملی تعالی و پیشرفت
مدل: تعالی EFQM 2013

اظهارنامه سطح گواهی تعهد
اظهارنامه سطح تقدیرنامه/ تندیس