دورنمای ابتکارات تدوین استانداردهای هوش مصنوعی
چشمانداز نهادی و همکاری جهانی در تدوین استانداردهای هوش مصنوعی:
معماری جهانی استانداردسازی هوش مصنوعی شامل سازمانهای بینالمللی تدوین استاندارد همچون ITU (اتحادیه بینالمللی مخابرات)، ISO (سازمان بینالمللی استانداردسازی)، IEC (کمیسیون بینالمللی الکتروتکنیک) و همچنین نهاد متخصصان IEEE (مؤسسه مهندسان برق و الکترونیک) است. مجموعه استانداردهای این نهادها اکنون حوزهای گسترده را پوشش میدهد که شامل مشخصات مخابراتمحور، استانداردهای افقی مبتنی بر سیستمهای مدیریت، و راهنماهای عمل اجتماعی ـ فنی است و یک لایهبندی در حال شکلگیری از استانداردهای مرتبط با هوش مصنوعی را تشکیل میدهد.
ITU گستردهترین جامعه ذینفع را دارد؛ شامل ۱۹۴ کشور عضو و بیش از ۱۰۰۰ شرکت، دانشگاه، موسسه تحقیقاتی و سازمان بینالمللی و منطقهای که به آن هم اعتبار میاندولتی و هم عمق فنی بخشمحور میدهد.
ISO دارای ۴۸ عضو مشارکتکننده در کمیته تخصصی هوش مصنوعی خود (JTC 1/SC 42) است.
همکاری استانداردهای هوش مصنوعی و اصالت چندرسانهای (AMAS) تحت چارچوب World Standards Cooperation (مشارکت ITU، ISO و IEC) که در اجلاس AI for Good 2024 معرفی شد، به دنبال این است که نقش استانداردها را بهعنوان ابزارهای عملی برای شفافیت، پاسخگویی، صیانت از حقوق بشر و هدایت نوآوری مسئولانه تبیین کند.
AMAS تاکنون نقشهبرداری استانداردهای موجود در حوزه هوش مصنوعی و اصالت چندرسانهای و شناسایی خلأها را انجام داده و همچنین راهنماییهایی برای سیاستگذاران و رگولاتورها توسعه داده است. این دو دستاورد همزمان با اجلاس AI for Good 2025 منتشر میشوند.
ITU، ISO و IEC نخستین دوره اجلاس بینالمللی استانداردهای هوش مصنوعی را در کنار WTSA-24 در دهلی نو (اکتبر 2024) برگزار کردند و دومین دوره آن را در سئول، ۲ تا ۳ دسامبر ۲۰۲۵ برگزار خواهند کرد. هدف این مجموعه رویدادها کمک به تحقق اهداف برنامه جهانی دیجیتال سازمان ملل (UN Global Digital Compact) است.
در اجلاس AI for Good 2025 در ژنو، پایگاه داده تبادل استانداردهای هوش مصنوعی راهاندازی شد که شامل استانداردهای ITU، ISO، IEC، IEEE و IETF است و نهادهای استانداردسازی منطقهای دیگر نیز قصد پیوستن دارند.
ابتکارات استانداردسازی بخشی و منطقهای
ابتکارات منطقهای از مرحله گزارههای اصولی به مرحله اجرا رسیدهاند. در اروپا، کمیته مشترک فنی CEN-CENELEC JTC 21 در حوزه هوش مصنوعی (تأسیس ۲۰۲۱ با بیش از ۳۰۰ کارشناس از بیش از ۲۰ کشور)، در حال تدوین استانداردهای بخشمحور برای سلامت، حملونقل و سایر حوزههای پرریسک است.
مطابق تصمیم کمیسیون C(2023)3215 مسیرهای «فرض انطباق» تحت قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) توسط همین استانداردها تعیین میشود.
این کمیته همچنین در حال انطباقسازی متون ISO/IEC با الزامات قانونی اتحادیه اروپا و توسعه شاخصهای جدید مانند معیارهای سنجش قابلیت اعتماد خودروهای خودران برای ایجاد قابلیت تعاملپذیری فرامرزی در بازار واحد اروپاست.
تدوین استانداردهای فنی
انواع استانداردهای فنی
استانداردهای هوش مصنوعی را میتوان به چهار دسته عملی تقسیم کرد:
استانداردهای سیستم مدیریت
مانند ISO/IEC 42001 که سازمانها را ملزم میکند نقشها، فرآیندهای مدیریت ریسک و چرخههای بهبود مستمر را در تمام مراحل توسعه هوش مصنوعی مستقر کنند.
استاندارد ITU-T Y.3061 نیز همین رویکرد را در سطح شبکه برای شبکههای خودران مخابراتی بهکار میگیرد.
استانداردهای ارزیابی و تضمین
ISO/IEC 42005 یک روش هشتمرحلهای برای ارزیابی اثرات ارائه میدهد،
و ITU-T Y.3173 معیارهایی برای سنجش «هوشمندی» گرهها و خدمات 5G معرفی میکند.
استانداردهای انطباق و ممیزی
مانند ISO/IEC 42006 که صلاحیت ممیزان سیستمهای مدیریت هوش مصنوعی را تعیین میکند،
و ITU-T F.781.2 که پروتکلهای آزمون و الزامات شواهد برای نرمافزارهای پزشکی مبتنی بر AI را مشخص میکند.
استانداردهای فنی پیادهسازی
مانند ITU-T Y.3172 که قالب داده و نقاط کنترل برای ادغام توابع یادگیری ماشین در شبکههای 5G را مشخص میکند.
راهنمای IEEE 7000 نیز دستورالعملی برای جاریسازی ارزشهای اخلاقی در فرایند توسعه ارائه میدهد.
خلأهای موجود در استانداردسازی فنی
پذیرش استانداردهای رسمی هوش مصنوعی هنوز استثناست، زیرا:
شرکتها با چارچوبهای سریعتر اما غیررسمی مواجهاند که به ناهماهنگی و انتخابگری مقرراتی منجر میشود.
مشارکت نامتوازن است: گروههای مدنی، SMEها و کشورهای جنوب جهانی اغلب منابع مالی و زمانی کافی ندارند، در حالی که کارکنان Big Tech گاهی ۸۰ ساعت در هفته در جلسات حضور دارند و تأثیر بیش از حد میگذارند.
چرخه تدوین استاندارد (۱۸ تا ۳۶ ماه) با سرعت رشد مدلهای عاملمحور (agentic AI) هماهنگ نیست.
استانداردسازی در حوزههای ارزشمحور مانند عدالت در رژیمهای حقوقی متفاوت دشوار است.
یک مطالعه از Oxford Martin School پیشنهاد میکند که سازمانهای استانداردسازی باید به سمت استانداردهای «پسرو» مانند استانداردهای مدیریتی سطح بالا برای مسائل تثبیتشده حرکت کنند، نه استانداردسازی همه ریسکهای پیشرفته.
یکی از راهکارهای عملی برای رفع این شکاف، استفاده از مدل گروههای پیشاستانداردسازی ITU است.
این گروهها میتوانند چارچوبهایی مانند معماری مرجع، طبقهبندی ریسک، و محیطهای آزمون آزمایشی (sandbox) ایجاد کنند.
IEEE نیز میتواند راهنماییهای اخلاقمحور بیشتری توسعه دهد.
استانداردهای موردنیاز برای عاملهای هوش مصنوعی (AI Agents)
هوش مصنوعی عاملی به استانداردهایی نیاز دارد که فراتر از استانداردهای مدلمحور امروز باشد:
هیچ استاندارد رسمی برای پروتکلهای ارتباط بین عاملها (agent-to-agent)
APIهای امن برای ابزارها
یا محافظهای رفتاری برای خوداصلاحگری خودکار عاملها وجود ندارد.
نمونههای اولیه مانند:
پروتکل Agent2Agent (A2A) مایکروسافت
پروتکل Model Context Protocol (MCP)
نشان میدهند که جریانهای چندعاملی چگونه میتواند عمل کند، اما اینها غیررسمی و خارج از چارچوب سازمانهای استانداردسازی هستند.
محققان ایمنی هشدار میدهند که روشهای آزمون کنونی ریسکهای نوظهور رفتاری عاملها را پوشش نمیدهد.
چارچوب تازهمنتشرشده MAEBE (رفتار emergent چندعاملی) یکی از نخستین تلاشها برای سنجش رفتارهای جمعی در غیاب روشهای آزمون یکپارچه است.
Ethical AI Frameworks – چارچوبهای اخلاقی در هوش مصنوعی
UNESCO Recommendation on the Ethics of AI
در نوامبر 2021، یونسکو «توصیهنامه اخلاق هوش مصنوعی» را بهعنوان اولین توافق چندجانبه جهانی در این حوزه تصویب کرد؛ سندی که تمامی ۱۹۴ کشور عضو را به اصولی مانند صیانت از حقوق بشر، شفافیت، عدالت و کنترل انسانی متعهد میکند.
برای عملیسازی این اصول در کشورها، یونسکو «روش ارزیابی آمادگی (RAM)» را طراحی کرده است. بنا بر گزارش بخش علوم اجتماعی یونسکو، این نهاد تاکنون با حدود ۶۰ کشور— عمدتاً در آفریقا، کارائیب و آمریکای لاتین — همکاری کرده تا ارزیابی اولیه، تحلیل شکاف و برنامههای اقدام ملی را تدوین کند.
هرچند اجرای این توصیهنامه در مراحل ابتدایی است و برخی مفاهیم همچون «عدالت» یا «پاسخگویی» بسته به بستر حقوقی کشورها تفسیرهای متفاوتی پدید میآورند، این سند همچنان یکی از مهمترین چارچوبهای اخلاقی پایه برای کشورهایی است که هنوز رژیمهای قانونی کامل برای AI ایجاد نکردهاند.
با پیشرفت شاخصها و مسیرهای تنظیمگری، این توصیهنامه بهعنوان مرجع همگرایی بینالمللی در اخلاق هوش مصنوعی باقی میماند.
OECD AI Principles
در سال ۲۰۱۹ و با بازنگری مهم در مه ۲۰۲۴ — بهویژه در پاسخ به ظهور مدلهای مولد — «اصول هوش مصنوعی OECD» بهعنوان نخستین استاندارد بیندولتی AI منتشر شد. این اصول، که اکنون توسط ۴۷ دولت پذیرفته شدهاند، شامل:
پنج اصل مبتنی بر ارزشهای انسانی:
محوریت انسان، شفافیت، قابلیت اتکا، پاسخگویی و رشد فراگیر
پنج رکن سیاستگذاری شامل ابزارهایی برای پیادهسازی مانند:
سرمایهگذاری در R&D، چارچوبهای نوآوری، آزمایشگاههای قانونگذاری (regulatory sandboxes)
OECD از طریق «رصدخانه سیاست هوش مصنوعی»، مدل governance hourglass را ترویج میکند که اصول سطح بالا را با فرایندهای سازمانی و کنترلهای سیستمی پیوند میدهد و بر مشارکت ذینفعان و پایش مستمر تأکید دارد.
Stakeholder Engagement and Inclusive Governance
چارچوبهای اخلاقی جدید بر حکمرانی چندذینفعی و مشارکت فراگیر تمرکز دارند.
نمونههای شاخص:
کد رفتار (Code of Practice) اتحادیه اروپا برای مدلهای عمومی که در سال ۲۰۲۴ بیش از ۴۳۰ نظر تخصصی از صنعت، دانشگاه و جامعه مدنی را دریافت کرد.
ائتلاف جهانی هوش مصنوعی (GPAI)، که گروههای کاری آن با حضور دولتها، دانشمندان، شرکتها و NGOها شکل میگیرد.
«بیانیه دهلی نو» در سال ۲۰۲۴ که بر گسترش عضویت GPAI با تمرکز بر کشورهای کمدرآمد و متوسط جهت کاهش «شکاف جهانی هوش مصنوعی» تأکید کرده است.
عضویت کشورهایی مانند مراکش (پس از نشست بلگراد ۲۰۲۴) نشاندهنده اثرگذاری این رویکرد است.
Safety Standards and Red-Teaming – استانداردهای ایمنی و ارزیابیهای تهاجمی
Shared Scientific and Policy Understanding
«گزارش بینالمللی ایمنی هوش مصنوعی ۲۰۲۵» که توسط متخصصان ۳۳ کشور و سازمانهای بینالمللی تهیه شده، جامعترین مرور علمی موجود درباره ریسکها، راهکارهای کاهش خطر و توصیههای سیاستی است.
این گزارش نقشی کلیدی در ایجاد درک مشترک جهانی درباره ایمنی و استانداردسازی ایفا میکند.
AI Safety Testing Protocols
«پروتکلهای آزمون ایمنی AI» مجموعهای از روشها و ابزارها هستند که اطمینان میدهند سیستمهای AI:
مطابق انتظار عمل میکنند،
رفتارهای آسیبزا یا ناخواسته بروز نمیدهند،
و در برابر تهدیدات مقاوماند.
اتحادیه اروپا در «قانون AI»، الزامات سختگیرانهای برای سیستمهای پرریسک مانند:
ارزیابی خطر،
مستندسازی کامل،
قابلیت ردیابی،
و نظارت انسانی
تدوین کرده است.
Red-Teaming
ردتیمینگ یک آزمون تهاجمی، سیستماتیک و تخصصی است که در آن تیمهای مستقل نقش مهاجمان را بازی میکنند تا:
نقاط ضعف،
رفتارهای ناخواسته،
خروجیهای غیرایمن،
نشت داده،
و امکان دورزدن کنترلها
را کشف کنند.
این روش اکنون در حوزههای حساس نظیر مالی، درمان و زیرساختهای حیاتی اجباری یا توصیهشده است.
Adversarial Testing & Continuous Risk Assessment
این شیوه شامل طراحی پرسشها یا ورودیهایی است که مدل را به چالش میکشند، مانند:
promptهای پیچیده یا فریبنده
تلاش برای دور زدن محدودیتها
دادههای ناقص یا گیجکننده
هدف این است که سیستم در شرایط نامعمول نیز پایدار و قابل اتکا باقی بماند.
Global Tools for Evaluation
مؤسسه امنیت هوش مصنوعی بریتانیا (UK AI Security Institute) پلتفرم INSPECT را معرفی کرده—یک مجموعه ابزار ارزیابی ایمنی که به کشورها و پژوهشگران امکان اجرای آزمونهای یکپارچه و معتبر را میدهد و میتواند به ایجاد استانداردهای جهانی قابل اتکا کمک کند.
Certification and Accreditation Programs – نظامهای گواهینامه و اعتباردهی AI
AI Practitioner Certification Pathways
امروزه مسیرهای مختلفی برای احراز صلاحیت متخصصان AI وجود دارد. از مهمترین مدارک جهانی میتوان به موارد زیر اشاره کرد:
Certified Artificial Intelligence Practitioner (CAIP)
دارای تأییدیه ISO/IEC 17024:2012 و تمرکز بر مهارتهای عملی در طراحی، پیادهسازی و استقرار سیستمهای AI و ML.
Certified Artificial Intelligence Scientist (CAIS)
گواهیهای ARTIBA AI
گواهیهای پلتفرممحور:
Microsoft Azure AI Engineer Associate
NVIDIA Jetson AI Certification
این مسیرها علاوه بر مهارتهای فنی، شامل مباحث مربوط به اخلاق، قانونگذاری، و حکمرانی هوش مصنوعی نیز هستند.
Accreditation Programs for AI Systems
برخی صنایع در حال ایجاد برنامههای تأیید صلاحیت (Accreditation) برای سامانههای AI هستند، مانند:
اعتباردهی AI در حوزه سلامت توسط URAC (در حال راهاندازی برای Q3 2025)
که چارچوبی برای استفاده ایمن، اخلاقی و عادلانه از AI بالینی ارائه میدهد.
میثاق جهانی اخلاق هوش مصنوعی در آموزش (2025) به رهبری یونسکو
که استانداردهای اخلاقی جهانی برای AI در محیطهای آموزشی تدوین میکند و به نهادهای اعتباردهی توصیه شده با این چارچوب هماهنگ شوند.