چارچوب‌های اخلاقی، استانداردهای ایمنی و مسیرهای گواهی‌نامه در هوش مصنوعی: مروری بر الزامات جهانی 2025

این مقاله به بررسی جامع جدیدترین رویکردهای جهانی در حوزه اخلاق، ایمنی و گواهی‌نامه‌های تخصصی هوش مصنوعی می‌پردازد. ابتدا چارچوب‌های اخلاقی بین‌المللی مانند «توصیه‌نامه اخلاق هوش مصنوعی یونسکو» و «اصول هوش مصنوعی OECD» معرفی می‌شود و نقش آن‌ها در تقویت ارزش‌های انسانی، شفافیت و مسئولیت‌پذیری تحلیل می‌گردد. سپس استانداردهای نوین ایمنی و روش‌های تست پیشرفته شامل Red-Teaming، آزمون‌های خصمانه، و مدل‌های ارزیابی مستمر که در گزارش بین‌المللی ایمنی هوش مصنوعی 2025 مطرح شده‌اند، تبیین می‌شوند. در بخش پایانی نیز مسیرهای گواهی‌نامه‌های حرفه‌ای مانند CAIP، CAIS و برنامه‌های اعتباربخشی بخشی (از جمله URAC برای حوزه سلامت) بررسی شده و اهمیت این نظام‌ها در توسعه مهارت‌های حرفه‌ای و تضمین استفاده مسئولانه از هوش مصنوعی تشریح می‌شود. این مقاله به‌عنوان مرجعی به‌روز، مسیر آشنایی با الزامات نوظهور و جهت‌گیری‌های آینده حاکمیت و استانداردهای AI را ارائه می‌کند.

 AI Standards and Best Practices

پیام یا خواسته های خود را در این قسمت بنویسید. اگر  دقیقا نمی دانید که چه چیزی می خواهید و نیاز به مشاوره دارید، کارشناسان ما با شما تماس خواهند گرفت.

 دورنمای ابتکارات تدوین استانداردهای هوش مصنوعی

چشم‌انداز نهادی و همکاری جهانی در تدوین استانداردهای هوش مصنوعی:


معماری جهانی استانداردسازی هوش مصنوعی شامل سازمان‌های بین‌المللی تدوین استاندارد همچون ITU (اتحادیه بین‌المللی مخابرات)، ISO (سازمان بین‌المللی استانداردسازی)، IEC (کمیسیون بین‌المللی الکتروتکنیک) و همچنین نهاد متخصصان IEEE (مؤسسه مهندسان برق و الکترونیک) است. مجموعه استانداردهای این نهادها اکنون حوزه‌ای گسترده را پوشش می‌دهد که شامل مشخصات مخابرات‌محور، استانداردهای افقی مبتنی بر سیستم‌های مدیریت، و راهنماهای عمل اجتماعی ـ فنی است و یک لایه‌بندی در حال شکل‌گیری از استانداردهای مرتبط با هوش مصنوعی را تشکیل می‌دهد.

ITU گسترده‌ترین جامعه ذی‌نفع را دارد؛ شامل ۱۹۴ کشور عضو و بیش از ۱۰۰۰ شرکت، دانشگاه، موسسه تحقیقاتی و سازمان بین‌المللی و منطقه‌ای که به آن هم اعتبار میان‌دولتی و هم عمق فنی بخش‌محور می‌دهد.
ISO دارای ۴۸ عضو مشارکت‌کننده در کمیته تخصصی هوش مصنوعی خود (JTC 1/SC 42) است.

همکاری استانداردهای هوش مصنوعی و اصالت چندرسانه‌ای (AMAS) تحت چارچوب World Standards Cooperation (مشارکت ITU، ISO و IEC) که در اجلاس AI for Good 2024 معرفی شد، به دنبال این است که نقش استانداردها را به‌عنوان ابزارهای عملی برای شفافیت، پاسخگویی، صیانت از حقوق بشر و هدایت نوآوری مسئولانه تبیین کند.
AMAS تاکنون نقشه‌برداری استانداردهای موجود در حوزه هوش مصنوعی و اصالت چندرسانه‌ای و شناسایی خلأها را انجام داده و همچنین راهنمایی‌هایی برای سیاست‌گذاران و رگولاتورها توسعه داده است. این دو دستاورد هم‌زمان با اجلاس AI for Good 2025 منتشر می‌شوند.

ITU، ISO و IEC نخستین دوره اجلاس بین‌المللی استانداردهای هوش مصنوعی را در کنار WTSA-24 در دهلی نو (اکتبر 2024) برگزار کردند و دومین دوره آن را در سئول، ۲ تا ۳ دسامبر ۲۰۲۵ برگزار خواهند کرد. هدف این مجموعه رویدادها کمک به تحقق اهداف برنامه جهانی دیجیتال سازمان ملل (UN Global Digital Compact) است.

در اجلاس AI for Good 2025 در ژنو، پایگاه داده تبادل استانداردهای هوش مصنوعی راه‌اندازی شد که شامل استانداردهای ITU، ISO، IEC، IEEE و IETF است و نهادهای استانداردسازی منطقه‌ای دیگر نیز قصد پیوستن دارند.

ابتکارات استانداردسازی بخشی و منطقه‌ای

ابتکارات منطقه‌ای از مرحله گزاره‌های اصولی به مرحله اجرا رسیده‌اند. در اروپا، کمیته مشترک فنی CEN-CENELEC JTC 21 در حوزه هوش مصنوعی (تأسیس ۲۰۲۱ با بیش از ۳۰۰ کارشناس از بیش از ۲۰ کشور)، در حال تدوین استانداردهای بخش‌محور برای سلامت، حمل‌ونقل و سایر حوزه‌های پرریسک است.
مطابق تصمیم کمیسیون C(2023)3215 مسیرهای «فرض انطباق» تحت قانون هوش مصنوعی اتحادیه اروپا (EU AI Act) توسط همین استانداردها تعیین می‌شود.

این کمیته همچنین در حال انطباق‌سازی متون ISO/IEC با الزامات قانونی اتحادیه اروپا و توسعه شاخص‌های جدید مانند معیارهای سنجش قابلیت اعتماد خودروهای خودران برای ایجاد قابلیت تعامل‌پذیری فرامرزی در بازار واحد اروپاست.

 تدوین استانداردهای فنی

انواع استانداردهای فنی

استانداردهای هوش مصنوعی را می‌توان به چهار دسته عملی تقسیم کرد:

استانداردهای سیستم مدیریت

مانند ISO/IEC 42001 که سازمان‌ها را ملزم می‌کند نقش‌ها، فرآیندهای مدیریت ریسک و چرخه‌های بهبود مستمر را در تمام مراحل توسعه هوش مصنوعی مستقر کنند.
استاندارد ITU-T Y.3061 نیز همین رویکرد را در سطح شبکه برای شبکه‌های خودران مخابراتی به‌کار می‌گیرد.

استانداردهای ارزیابی و تضمین

ISO/IEC 42005 یک روش هشت‌مرحله‌ای برای ارزیابی اثرات ارائه می‌دهد،
و ITU-T Y.3173 معیارهایی برای سنجش «هوشمندی» گره‌ها و خدمات 5G معرفی می‌کند.

استانداردهای انطباق و ممیزی

مانند ISO/IEC 42006 که صلاحیت ممیزان سیستم‌های مدیریت هوش مصنوعی را تعیین می‌کند،
و ITU-T F.781.2 که پروتکل‌های آزمون و الزامات شواهد برای نرم‌افزارهای پزشکی مبتنی بر AI را مشخص می‌کند.

استانداردهای فنی پیاده‌سازی

مانند ITU-T Y.3172 که قالب داده و نقاط کنترل برای ادغام توابع یادگیری ماشین در شبکه‌های 5G را مشخص می‌کند.
راهنمای IEEE 7000 نیز دستورالعملی برای جاری‌سازی ارزش‌های اخلاقی در فرایند توسعه ارائه می‌دهد.

خلأهای موجود در استانداردسازی فنی

پذیرش استانداردهای رسمی هوش مصنوعی هنوز استثناست، زیرا:

شرکت‌ها با چارچوب‌های سریع‌تر اما غیررسمی مواجه‌اند که به ناهماهنگی و انتخاب‌گری مقرراتی منجر می‌شود.

مشارکت نامتوازن است: گروه‌های مدنی، SMEها و کشورهای جنوب جهانی اغلب منابع مالی و زمانی کافی ندارند، در حالی که کارکنان Big Tech گاهی ۸۰ ساعت در هفته در جلسات حضور دارند و تأثیر بیش از حد می‌گذارند.

چرخه تدوین استاندارد (۱۸ تا ۳۶ ماه) با سرعت رشد مدل‌های عامل‌محور (agentic AI) هماهنگ نیست.

استانداردسازی در حوزه‌های ارزش‌محور مانند عدالت در رژیم‌های حقوقی متفاوت دشوار است.

یک مطالعه از Oxford Martin School پیشنهاد می‌کند که سازمان‌های استانداردسازی باید به سمت استانداردهای «پس‌رو» مانند استانداردهای مدیریتی سطح بالا برای مسائل تثبیت‌شده حرکت کنند، نه استانداردسازی همه ریسک‌های پیشرفته.

یکی از راهکارهای عملی برای رفع این شکاف، استفاده از مدل گروه‌های پیش‌استانداردسازی ITU است.
این گروه‌ها می‌توانند چارچوب‌هایی مانند معماری مرجع، طبقه‌بندی ریسک، و محیط‌های آزمون آزمایشی (sandbox) ایجاد کنند.
IEEE نیز می‌تواند راهنمایی‌های اخلاق‌محور بیشتری توسعه دهد.

استانداردهای موردنیاز برای عامل‌های هوش مصنوعی (AI Agents)

هوش مصنوعی عاملی به استانداردهایی نیاز دارد که فراتر از استانداردهای مدل‌محور امروز باشد:

هیچ استاندارد رسمی برای پروتکل‌های ارتباط بین عامل‌ها (agent-to-agent)

APIهای امن برای ابزارها

یا محافظ‌های رفتاری برای خوداصلاح‌گری خودکار عامل‌ها وجود ندارد.

نمونه‌های اولیه مانند:

پروتکل Agent2Agent (A2A) مایکروسافت

پروتکل Model Context Protocol (MCP)

نشان می‌دهند که جریان‌های چندعاملی چگونه می‌تواند عمل کند، اما این‌ها غیررسمی و خارج از چارچوب سازمان‌های استانداردسازی هستند.

محققان ایمنی هشدار می‌دهند که روش‌های آزمون کنونی ریسک‌های نوظهور رفتاری عامل‌ها را پوشش نمی‌دهد.
چارچوب تازه‌منتشرشده MAEBE (رفتار emergent چندعاملی) یکی از نخستین تلاش‌ها برای سنجش رفتارهای جمعی در غیاب روش‌های آزمون یکپارچه است.

 Ethical AI Frameworks – چارچوب‌های اخلاقی در هوش مصنوعی


UNESCO Recommendation on the Ethics of AI

در نوامبر 2021، یونسکو «توصیه‌نامه اخلاق هوش مصنوعی» را به‌عنوان اولین توافق چندجانبه جهانی در این حوزه تصویب کرد؛ سندی که تمامی ۱۹۴ کشور عضو را به اصولی مانند صیانت از حقوق بشر، شفافیت، عدالت و کنترل انسانی متعهد می‌کند.
برای عملی‌سازی این اصول در کشورها، یونسکو «روش ارزیابی آمادگی (RAM)» را طراحی کرده است. بنا بر گزارش بخش علوم اجتماعی یونسکو، این نهاد تاکنون با حدود ۶۰ کشور— عمدتاً در آفریقا، کارائیب و آمریکای لاتین — همکاری کرده تا ارزیابی اولیه، تحلیل شکاف و برنامه‌های اقدام ملی را تدوین کند.

هرچند اجرای این توصیه‌نامه در مراحل ابتدایی است و برخی مفاهیم همچون «عدالت» یا «پاسخ‌گویی» بسته به بستر حقوقی کشورها تفسیرهای متفاوتی پدید می‌آورند، این سند همچنان یکی از مهم‌ترین چارچوب‌های اخلاقی پایه برای کشورهایی است که هنوز رژیم‌های قانونی کامل برای AI ایجاد نکرده‌اند.
با پیشرفت شاخص‌ها و مسیرهای تنظیم‌گری، این توصیه‌نامه به‌عنوان مرجع همگرایی بین‌المللی در اخلاق هوش مصنوعی باقی می‌ماند.

OECD AI Principles

در سال ۲۰۱۹ و با بازنگری مهم در مه‌ ۲۰۲۴ — به‌ویژه در پاسخ به ظهور مدل‌های مولد — «اصول هوش مصنوعی OECD» به‌عنوان نخستین استاندارد بین‌دولتی AI منتشر شد. این اصول، که اکنون توسط ۴۷ دولت پذیرفته شده‌اند، شامل:

پنج اصل مبتنی بر ارزش‌های انسانی:
محوریت انسان، شفافیت، قابلیت اتکا، پاسخ‌گویی و رشد فراگیر

پنج رکن سیاست‌گذاری شامل ابزارهایی برای پیاده‌سازی مانند:
سرمایه‌گذاری در R&D، چارچوب‌های نوآوری، آزمایشگاه‌های قانون‌گذاری (regulatory sandboxes)

OECD از طریق «رصدخانه سیاست هوش مصنوعی»، مدل governance hourglass را ترویج می‌کند که اصول سطح بالا را با فرایندهای سازمانی و کنترل‌های سیستمی پیوند می‌دهد و بر مشارکت ذی‌نفعان و پایش مستمر تأکید دارد.

Stakeholder Engagement and Inclusive Governance

چارچوب‌های اخلاقی جدید بر حکمرانی چندذی‌نفعی و مشارکت فراگیر تمرکز دارند.
نمونه‌های شاخص:

کد رفتار (Code of Practice) اتحادیه اروپا برای مدل‌های عمومی که در سال ۲۰۲۴ بیش از ۴۳۰ نظر تخصصی از صنعت، دانشگاه و جامعه مدنی را دریافت کرد.

ائتلاف جهانی هوش مصنوعی (GPAI)، که گروه‌های کاری آن با حضور دولت‌ها، دانشمندان، شرکت‌ها و NGOها شکل می‌گیرد.

«بیانیه دهلی نو» در سال ۲۰۲۴ که بر گسترش عضویت GPAI با تمرکز بر کشورهای کم‌درآمد و متوسط جهت کاهش «شکاف جهانی هوش مصنوعی» تأکید کرده است.
عضویت کشورهایی مانند مراکش (پس از نشست بلگراد ۲۰۲۴) نشان‌دهنده اثرگذاری این رویکرد است.

 Safety Standards and Red-Teaming – استانداردهای ایمنی و ارزیابی‌های تهاجمی

Shared Scientific and Policy Understanding

«گزارش بین‌المللی ایمنی هوش مصنوعی ۲۰۲۵» که توسط متخصصان ۳۳ کشور و سازمان‌های بین‌المللی تهیه شده، جامع‌ترین مرور علمی موجود درباره ریسک‌ها، راهکارهای کاهش خطر و توصیه‌های سیاستی است.
این گزارش نقشی کلیدی در ایجاد درک مشترک جهانی درباره ایمنی و استانداردسازی ایفا می‌کند.

AI Safety Testing Protocols

«پروتکل‌های آزمون ایمنی AI» مجموعه‌ای از روش‌ها و ابزارها هستند که اطمینان می‌دهند سیستم‌های AI:

مطابق انتظار عمل می‌کنند،

رفتارهای آسیب‌زا یا ناخواسته بروز نمی‌دهند،

و در برابر تهدیدات مقاوم‌اند.

اتحادیه اروپا در «قانون AI»، الزامات سخت‌گیرانه‌ای برای سیستم‌های پرریسک مانند:

ارزیابی خطر،

مستندسازی کامل،

قابلیت ردیابی،

و نظارت انسانی

تدوین کرده است.

Red-Teaming

ردتیمینگ یک آزمون تهاجمی، سیستماتیک و تخصصی است که در آن تیم‌های مستقل نقش مهاجمان را بازی می‌کنند تا:

نقاط ضعف،

رفتارهای ناخواسته،

خروجی‌های غیرایمن،

نشت داده،

و امکان دورزدن کنترل‌ها

را کشف کنند.

این روش اکنون در حوزه‌های حساس نظیر مالی، درمان و زیرساخت‌های حیاتی اجباری یا توصیه‌شده است.

Adversarial Testing & Continuous Risk Assessment

این شیوه شامل طراحی پرسش‌ها یا ورودی‌هایی است که مدل را به چالش می‌کشند، مانند:

promptهای پیچیده یا فریبنده

تلاش برای دور زدن محدودیت‌ها

داده‌های ناقص یا گیج‌کننده

هدف این است که سیستم در شرایط نامعمول نیز پایدار و قابل اتکا باقی بماند.

Global Tools for Evaluation

مؤسسه امنیت هوش مصنوعی بریتانیا (UK AI Security Institute) پلتفرم INSPECT را معرفی کرده—یک مجموعه ابزار ارزیابی ایمنی که به کشورها و پژوهشگران امکان اجرای آزمون‌های یکپارچه و معتبر را می‌دهد و می‌تواند به ایجاد استانداردهای جهانی قابل اتکا کمک کند.

 Certification and Accreditation Programs – نظام‌های گواهینامه و اعتباردهی AI

AI Practitioner Certification Pathways

امروزه مسیرهای مختلفی برای احراز صلاحیت متخصصان AI وجود دارد. از مهم‌ترین مدارک جهانی می‌توان به موارد زیر اشاره کرد:

Certified Artificial Intelligence Practitioner (CAIP)
دارای تأییدیه ISO/IEC 17024:2012 و تمرکز بر مهارت‌های عملی در طراحی، پیاده‌سازی و استقرار سیستم‌های AI و ML.

Certified Artificial Intelligence Scientist (CAIS)

گواهی‌های ARTIBA AI

گواهی‌های پلتفرم‌محور:

Microsoft Azure AI Engineer Associate

NVIDIA Jetson AI Certification

این مسیرها علاوه بر مهارت‌های فنی، شامل مباحث مربوط به اخلاق، قانون‌گذاری، و حکمرانی هوش مصنوعی نیز هستند.

Accreditation Programs for AI Systems

برخی صنایع در حال ایجاد برنامه‌های تأیید صلاحیت (Accreditation) برای سامانه‌های AI هستند، مانند:

اعتباردهی AI در حوزه سلامت توسط URAC (در حال راه‌اندازی برای Q3 2025)
که چارچوبی برای استفاده ایمن، اخلاقی و عادلانه از AI بالینی ارائه می‌دهد.

میثاق جهانی اخلاق هوش مصنوعی در آموزش (2025) به رهبری یونسکو
که استانداردهای اخلاقی جهانی برای AI در محیط‌های آموزشی تدوین می‌کند و به نهادهای اعتباردهی توصیه شده با این چارچوب هماهنگ شوند.

سوالات متداول چارچوب‌های اخلاقی، استانداردهای ایمنی و مسیرهای گواهی‌نامه در هوش مصنوعی: مروری بر الزامات جهانی 2025

این چارچوب‌ها کمک می‌کنند کشورها و سازمان‌ها سیاست‌های خود را بر پایه ارزش‌های انسانی، شفافیت، عدالت و نظارت انسانی تدوین کنند. در بسیاری از مناطق که هنوز قوانین رسمی وجود ندارد، این اسناد نقش راهنما و هماهنگ‌کننده استانداردهای اخلاقی را ایفا می‌کنند.
Red-Teaming فرآیندی است که در آن تیم‌های متخصص به‌طور عمدی مدل‌های هوش مصنوعی را تحت حملات، سناریوهای خصمانه و ورودی‌های چالش‌برانگیز قرار می‌دهند. این کار باعث شناسایی ضعف‌ها، نقاط شکست، سوگیری‌ها و تهدیدات امنیتی قبل از استقرار سیستم در دنیای واقعی می‌شود.
گواهی‌نامه‌های حرفه‌ای مهارت‌ها و صلاحیت‌های افراد متخصص را ارزیابی می‌کنند، در حالی‌که برنامه‌های اعتباربخشی (مانند URAC AI Accreditation) ساختار، ایمنی، ریسک و رویه‌های سازمانی سیستم‌های AI را در سطح نهادی بررسی می‌کنند. به‌عبارت دیگر، اولی برای افراد است و دومی برای سازمان‌ها و محصولات.
افزودن دیدگاه جدید

Restricted HTML

  • تگ‌های HTML مجاز: <a href hreflang> <em> <strong> <cite> <blockquote cite> <code> <ul type> <ol start type> <li> <dl> <dt> <dd> <h2 id> <h3 id> <h4 id> <h5 id> <h6 id>
  • خطوط و پاراگراف‌ها بطور خودکار اعمال می‌شوند.
  • Web page addresses and email addresses turn into links automatically.