با افزایش استفاده از هوش مصنوعی در محل کار، نگرانیهایی در مورد فقدان مقررات مطرح شده است. ظهور هوش مصنوعی که از دوربینها برای بررسی موارد نقض بهداشت و ایمنی در محل کار استفاده میکند، نگرانیهایی را در مورد فرهنگ خزنده نظارت بر محل کار و عدم حمایت از کارگران ایجاد کرده است. دوربینهای مداربسته […]
با افزایش استفاده از هوش مصنوعی در محل کار، نگرانیهایی در مورد فقدان مقررات مطرح شده است. ظهور هوش مصنوعی که از دوربینها برای بررسی موارد نقض بهداشت و ایمنی در محل کار استفاده میکند، نگرانیهایی را در مورد فرهنگ خزنده نظارت بر محل کار و عدم حمایت از کارگران ایجاد کرده است. دوربینهای مداربسته که از فناوری هوش مصنوعی استفاده میکند، میتواند برای شناسایی موارد نقض مانند زمانی که کارگر دستکش یا کلاه سخت به سر نمیکند، یا برای شناسایی خطراتی مانند نشت کردن، آموزش داده شود.
دفتر کمیسر اطلاعات استرالیا (OAIC) اعلام کرد که از افزایش استفاده از فناوری، از جمله فناوری هوش مصنوعی، برای نظارت بر رفتار در محل کار میتوان استفاده کرد. اگرچه هوش مصنوعی در حال حاضر به طریقهای مختلف در محیطهای کاری استرالیا مورد استفاده قرار میگیرد، اما جفت کردن هوش مصنوعی با دوربین مدار بسته یک فناوری در حال ظهور است.
Intenseye از دوربینهای مخفی برای نظارت بر امکانات و ارائه “اعلانهای تخلف در زمان واقعی” استفاده میکند. لمون که در آمریکا مستقر است، گفت: ما ویژگیهای ایمنی داخلی برای مقررات دادهای داریم که نمیتوانیم بر آن غلبه کنیم. او گفت تقاضای فزایندهای برای این فناوری وجود دارد که میتواند برای شناسایی رفتار یا نقض بر اساس نگرانیهای خاص کارفرما آموزش داده شود.
هشدارهای مربوط به تخلفات در یک پلتفرم دیجیتال مبتنی بر ابر ظاهر شد و لمون گفت که این شرکت سیستم جدیدی را توسعه داده است که تصویر “انسان” را از فیلمهای ویدئویی پنهان میکند تا فقط تصویر چوبی را به کارفرما ارائه دهد. آقای لمون گفت که این شرکت از تعهدات خود برای محافظت از حریم خصوصی کارمندان آگاه است و برای اطمینان از اینکه با دادهها و قوانین حفظ حریم خصوصی در کشورهای مختلف مطابقت دارد، به دنبال مشاوره حقوقی است.
او گفت که این شرکت با مقررات صنعت مطابقت داشته و توسط آزمایشگاه اخلاق هوش مصنوعی ممیزی شده است. پروفسور دیویس که مقررات فناوری را در رابطه با حقوق بشر مطالعه میکند، گفت که ظهور این نوع فناوری سوالاتی را در مورد رضایت، فرهنگ ایمنی و مسئولیت کارفرما در مورد اشتباهات هوش مصنوعی ایجاد کرده است. اگرچه شرکتها میتوانند اقداماتی را برای اطمینان از استفاده اخلاقی از هوش مصنوعی انجام دهند، او گفت که قوانین نظارتی استرالیا برای تنظیم مؤثر استفاده از هوش مصنوعی یا تعیین محدودیتهای آن تجهیز نشده است. او چیزهایی مانند پیشرفت در یادگیری ماشین را پیش بینی نمیکند.
پروفسور دیویس بخشی از تیمی در UTS، از جمله کمیسر سابق حقوق بشر، اد سانتو، است که بر روی قانون مدلی برای تنظیم استفاده از فناوری تشخیص چهره کار میکند. وزارت صنعت، علم و منابع یک چارچوب اخلاقی هوش مصنوعی را برای مشاغل ایجاد کرده است تا سیستمهای هوش مصنوعی را بر اساس مجموعهای از اصول اخلاقی آزمایش کنند. اما جیم استنفورد، اقتصاددان و مدیر مرکز کار آینده در مؤسسه استرالیا، گفت که فقدان مقررات قابل سوء استفاده و سوء استفاده است.
آقای استنفورد نویسنده گزارش نظارت الکترونیکی در محیطهای کاری استرالیا است، گفت که کارفرمایان باید تأثیرات بهداشتی و رفتاری ناشی از نظارت مداوم را نیز در نظر بگیرند. او گفت: “اگر مردم احساس کنند که همیشه تحت نظر هستند، هر کاری که می توانند انجام می دهند تا رئیس را راضی نگه دارند. این به خودی خود می تواند منجر به تسریع و تشدید کار شود که در دراز مدت برای سلامتی مضر است.آقای استنفورد گفت که با داشتن دوربین فیلمبرداری در محل کار مخالف نیست و استفاده از آنها در حال حاضر گسترده شده است و اینجاست که رژیم نظارتی استرالیا به شدت از فناوری عقب مانده است.
بیشتربخوانید