شنبه, ۳ آذر ۱۴۰۳ / قبل از ظهر / | 2024-11-23
تبلیغات
تبلیغات
کد خبر: 55264 |
تاریخ انتشار : ۰۷ مرداد ۱۴۰۱ - ۱۴:۵۹ |
102 بازدید
۰
2
ارسال به دوستان
پ

 با افزایش استفاده از هوش مصنوعی در محل کار، نگرانی‌هایی در مورد فقدان مقررات مطرح شده است. ظهور هوش مصنوعی که از دوربین‌ها برای بررسی موارد نقض بهداشت و ایمنی در محل کار استفاده می‌کند، نگرانی‌هایی را در مورد فرهنگ خزنده نظارت بر محل کار و عدم حمایت از کارگران ایجاد کرده است. دوربین‌های مداربسته […]

 با افزایش استفاده از هوش مصنوعی در محل کار، نگرانی‌هایی در مورد فقدان مقررات مطرح شده است. ظهور هوش مصنوعی که از دوربین‌ها برای بررسی موارد نقض بهداشت و ایمنی در محل کار استفاده می‌کند، نگرانی‌هایی را در مورد فرهنگ خزنده نظارت بر محل کار و عدم حمایت از کارگران ایجاد کرده است. دوربین‌های مداربسته که از فناوری هوش مصنوعی استفاده می‌کند، می‌تواند برای شناسایی موارد نقض مانند زمانی که کارگر دستکش یا کلاه سخت به سر نمی‌کند، یا برای شناسایی خطراتی مانند نشت کردن، آموزش داده شود.
دفتر کمیسر اطلاعات استرالیا (OAIC) اعلام کرد که از افزایش استفاده از فناوری، از جمله فناوری هوش مصنوعی، برای نظارت بر رفتار در محل کار می‌توان استفاده کرد. اگرچه هوش مصنوعی در حال حاضر به طریق‌های مختلف در محیط‌های کاری استرالیا مورد استفاده قرار می‌گیرد، اما جفت کردن هوش مصنوعی با دوربین مدار بسته یک فناوری در حال ظهور است.
Intenseye از دوربین‌های مخفی برای نظارت بر امکانات و ارائه “اعلان‌های تخلف در زمان واقعی” استفاده می‌کند. لمون که در آمریکا مستقر است، گفت: ما ویژگی‌های ایمنی داخلی برای مقررات داده‌ای داریم که نمی‌توانیم بر آن غلبه کنیم. او گفت تقاضای فزاینده‌ای برای این فناوری وجود دارد که می‌تواند برای شناسایی رفتار یا نقض بر اساس نگرانی‌های خاص کارفرما آموزش داده شود.
هشدار‌های مربوط به تخلفات در یک پلتفرم دیجیتال مبتنی بر ابر ظاهر شد و لمون گفت که این شرکت سیستم جدیدی را توسعه داده است که تصویر “انسان” را از فیلم‌های ویدئویی پنهان می‌کند تا فقط تصویر چوبی را به کارفرما ارائه دهد. آقای لمون گفت که این شرکت از تعهدات خود برای محافظت از حریم خصوصی کارمندان آگاه است و برای اطمینان از اینکه با داده‌ها و قوانین حفظ حریم خصوصی در کشور‌های مختلف مطابقت دارد، به دنبال مشاوره حقوقی است.

او گفت که این شرکت با مقررات صنعت مطابقت داشته و توسط آزمایشگاه اخلاق هوش مصنوعی ممیزی شده است. پروفسور دیویس که مقررات فناوری را در رابطه با حقوق بشر مطالعه می‌کند، گفت که ظهور این نوع فناوری سوالاتی را در مورد رضایت، فرهنگ ایمنی و مسئولیت کارفرما در مورد اشتباهات هوش مصنوعی ایجاد کرده است. اگرچه شرکت‌ها می‌توانند اقداماتی را برای اطمینان از استفاده اخلاقی از هوش مصنوعی انجام دهند، او گفت که قوانین نظارتی استرالیا برای تنظیم مؤثر استفاده از هوش مصنوعی یا تعیین محدودیت‌های آن تجهیز نشده است. او چیز‌هایی مانند پیشرفت در یادگیری ماشین را پیش بینی نمی‌کند.
پروفسور دیویس بخشی از تیمی در UTS، از جمله کمیسر سابق حقوق بشر، اد سانتو، است که بر روی قانون مدلی برای تنظیم استفاده از فناوری تشخیص چهره کار می‌کند. وزارت صنعت، علم و منابع یک چارچوب اخلاقی هوش مصنوعی را برای مشاغل ایجاد کرده است تا سیستم‌های هوش مصنوعی را بر اساس مجموعه‌ای از اصول اخلاقی آزمایش کنند. اما جیم استنفورد، اقتصاددان و مدیر مرکز کار آینده در مؤسسه استرالیا، گفت که فقدان مقررات قابل سوء استفاده و سوء استفاده است.
آقای استنفورد نویسنده گزارش نظارت الکترونیکی در محیط‌های کاری استرالیا است، گفت که کارفرمایان باید تأثیرات بهداشتی و رفتاری ناشی از نظارت مداوم را نیز در نظر بگیرند. او گفت: “اگر مردم احساس کنند که همیشه تحت نظر هستند، هر کاری که می توانند انجام می دهند تا رئیس را راضی نگه دارند. این به خودی خود می تواند منجر به تسریع و تشدید کار شود که در دراز مدت برای سلامتی مضر است.آقای استنفورد گفت که با داشتن دوربین فیلمبرداری در محل کار مخالف نیست و استفاده از آنها در حال حاضر گسترده شده است و اینجاست که رژیم نظارتی استرالیا به شدت از فناوری عقب مانده است.
بیشتربخوانید
 

لینک کوتاه خبر:
×
  • دیدگاه های ارسال شده توسط شما، پس از تایید توسط ادراك خبر در وب سایت منتشر خواهد شد
  • پیام هایی که حاوی تهمت یا افترا باشد منتشر نخواهد شد.
  • لطفا از تایپ فینگلیش بپرهیزید. در غیر اینصورت دیدگاه شما منتشر نخواهد شد.
  • نظرات و تجربیات شما

    نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

    نظرتان را بیان کنید