جمعه, ۲ آذر ۱۴۰۳ / قبل از ظهر / | 2024-11-22
تبلیغات
تبلیغات
کد خبر: 25055 |
تاریخ انتشار : ۳۱ اردیبهشت ۱۴۰۱ - ۲۲:۵۹ |
124 بازدید
۰
6
ارسال به دوستان
پ

گاهی اوقات هوش مصنوعی، افراد و شرکت‌ها را در معرض مجموعه‌ای از خطراتی قرار می‌د‌هد که در ابتدا کار، مهندسان می‌توانستند با ارزیابی آن‌ها را بر طرف کنند. به گزارش سایت venturebea؛ در این مواقع پای هوش مصنوعی مسئول به فرایند کاری باز می‌شود. یعنی یک چارچوب حاکمیتی که نحوه رسیدگی یک سازمان خاص به […]

گاهی اوقات هوش مصنوعی، افراد و شرکت‌ها را در معرض مجموعه‌ای از خطراتی قرار می‌د‌هد که در ابتدا کار، مهندسان می‌توانستند با ارزیابی آن‌ها را بر طرف کنند.
به گزارش سایت venturebea؛ در این مواقع پای هوش مصنوعی مسئول به فرایند کاری باز می‌شود. یعنی یک چارچوب حاکمیتی که نحوه رسیدگی یک سازمان خاص به چالش‌های اخلاقی و قانونی پیرامون هوش مصنوعی را مستند می‌کند. اما سوال اینجاست که اگر به واسطه هوش مصنوعی مشکلی پیش بیاید چه کسی پاسخگو است؟
براساس گزارش‌ها، تنها ۳۵ درصد از مصرف کنندگان جهانی به نحوه پیاده سازی هوش مصنوعی اعتماد دارند و ۷۷ درصد فکر می‌کنند که شرکت‌ها باید مسئول سوء استفاده از هوش مصنوعی باشند.
اما توسعه استاندارد‌های اخلاقی و قابل اعتماد هوش مصنوعی تا حد زیادی به صلاحدید کسانی است که مدل‌های الگوریتمی این هوش را برای یک شرکت می‌نویسند و استفاده می‌کنند. بدون خط مشی و فرآیند تعریف شده ای، هیچ راهی برای ایجاد پاسخگویی و تصمیم گیری آگاهانه در مورد نحوه سازگار نگه داشتن برنامه‌های کاربردی هوش مصنوعی و سودآوری برند‌ها وجود ندارد.

یکی دیگر از چالش‌های اصلی یادگیری ماشینی، شکاف عظیم تخصص هوش مصنوعی است که بین سیاست گذاران، دانشمندان و توسعه دهندگان وجود دارد. ذینفعانی که مدیریت ریسک را درک می‌کنند، لزوماً ابزار لازم برای به کارگیری مجموعه مهارت‌ها را در عملیات یادگیری ماشین و اعمال حاکمیت و کنترل‌های صحیح ندارند.
گفته شده، این مشکلات به عنوان الهام بخش Credo AI مستقر در پالو آلتو بود که در سال ۲۰۲۰ برای پر کردن شکاف بین دانش فنی سیاست گذاران و دانش اخلاقی دانشمندان داده به منظور اطمینان از توسعه پایدار هوش مصنوعی تأسیس شد.
عملی کردن هوش مصنوعی مسئول
ناورینا سینگ، مدیر عامل یک شرکت هوش مصنوعی، گفت: “ما اولین پلتفرم مدیریت هوش مصنوعی مسئولانه را ایجاد کردیم، زیرا فرصتی را دیدیم تا به شرکت‌ها کمک کنیم تا سیستم‌های هوش مصنوعی و مدل‌های یادگیری ماشین خود را با ارزش‌های انسانی هماهنگ کنند. “سینگ پس از پایان دور مالی ۱۲.۸ میلیون دلاری سری A به رهبری ساندز کپیتال، امیدوار است بتواند مدیریت مسئول هوش مصنوعی را به شرکت‌های بیشتری در سراسر جهان برساند. این بودجه برای تسریع توسعه محصول، ایجاد یک تیم قوی برای عرضه به بازار برای پیشبرد رهبری مسئولیت‌پذیر در بخش هوش مصنوعی Credo AI و تقویت عملکرد سیاست فناوری برای پشتیبانی از استاندارد‌ها و مقررات در حال ظهور استفاده می‌شود.

آینده حکمرانی هوش مصنوعی
سینگ خاطرنشان می‌کند که او آینده‌ای را متصور است که در آن شرکت‌ها هوش مصنوعی مسئول را به روشی که امنیت سایبری انجام می‌دهند در اولویت قرار می‌دهند. او می‌گوید: همانند آنچه که در زمینه تغییرات آب و هوایی و امنیت سایبری می‌بینیم، قرار است شاهد افشای اطلاعات بیشتر در مورد داده‌ها و سیستم‌های هوش مصنوعی باشیم.
بیشتر بخوانید

لینک کوتاه خبر:
×
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط ادراك خبر در وب سایت منتشر خواهد شد
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.
  • نظرات و تجربیات شما

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    نظرتان را بیان کنید