به نقل از webmd، در سال ۲۰۱۷، VHA برنامه هوش مصنوعی خود به نام REACH VET را به صورت آزمایشی اجرا کرد که هدف آن کمک به جلوگیری از مرگ جانبازان بر اثر خودکشی است. هر ماه، یک کامپیوتر سوابق سلامت الکترونیکی همه بیماران VHA را که به هر دلیلی در ۲ سال گذشته ویزیت مراقبتهای […]
به نقل از webmd، در سال ۲۰۱۷، VHA برنامه هوش مصنوعی خود به نام REACH VET را به صورت آزمایشی اجرا کرد که هدف آن کمک به جلوگیری از مرگ جانبازان بر اثر خودکشی است.
هر ماه، یک کامپیوتر سوابق سلامت الکترونیکی همه بیماران VHA را که به هر دلیلی در ۲ سال گذشته ویزیت مراقبتهای بهداشتی داشتهاند، اسکن میکند. بیش از ۱۴۰ متغیر را بررسی کرده و آنها را برای تخمین خطر کلی خودکشی در آن لحظه در زمان میسنجد.
برای ساختن الگوریتم خطر، رایانهای با بررسی سوابق پزشکی ۶۳۶۰ جانباز تایید کرد که بین سالهای ۲۰۰۹ تا ۲۰۱۱ بر اثر خودکشی جان باختهاند. (VHA به طور مداوم لیست متغیرهای سوابق بهداشتی بیماران VHA را به روز میکند، از جمله افرادی که از آن زمان بر اثر خودکشی جان خود را از دست دادهاند.)
REACH VET خطرناکترین موارد – ۰.۱ ٪ بالا – را برای یک ارائه دهنده سلامت روان یا مراقبتهای اولیه برای بررسی علامت گذاری میکند. آنها با بیمار تماس میگیرند تا به او بگویند که چگونه و چرا سابقه آنها سنجیده میشود، در مورد تغییرات توصیه شده در درمان صحبت میکنند و از آنها میخواهند که برای ویزیت مراجعه کنند.
تهیه یک طرح ایمنی برای خودکشی
طرح ایمنی سندی است که نشان میدهد چگونه یک فرد میتواند از خودکشی خود در یک بحران جلوگیری کند.
این طرح ممکن است شامل موارد زیر باشد:
فهرستی از محرکهای شخصی یا علائم هشدار دهندهچه چیزی در گذشته به آنها کمک کرده استاسامی افراد یا سازمانهایی که میتوانند از آنها حمایت کنندبرنامههایی برای حذف وسایل خودکشی مانند اسلحه از محیط خود
در افرادی که در معرض خطر خودکشی هستند، تحقیقات نشان میدهد که داشتن یک برنامه ایمنی افکار و تلاشهای خودکشی را کاهش داده و میزان افسردگی و ناامیدی را کم میکند و مشارکت جانبازان را با سیستم مراقبتهای بهداشتی افزایش میدهد؛ همچنین ممکن است به افراد کمک کند تا چیزهایی را مدیریت کنند که افکار خودکشی آنها را تحریک میکند.
امکان کنترل تمام خودکشیها وجود ندارد اما REACH VET تاثیر دارد. در یک کارآزمایی بالینی، دامپزشکانی که از طریق REACH VET با آنها تماس گرفته شد، مراجعات بیشتری به پزشک داشتند و احتمال بیشتری وجود داشت که یک طرح ایمنی کتبی برای پیشگیری از خودکشی داشته باشند و تعداد کمتری بستری در بیمارستان برای سلامت روان، مراجعه به اورژانس و اقدام به خودکشی داشتند.
استفاده از هوش مصنوعی برای پیشگیری از خودکشی
حتی اطلاع رسانی ساده میتواند تفاوت بزرگی ایجاد کند؛ و تحقیقاتی برای اثبات آن وجود دارد. مطالعهای بر روی ۴۷۳۰ جانباز که اخیرا از مراقبتهای روانپزشکی در VHA ترخیص شده بودند، انجام شد، گروهی که در معرض خطر بالای خودکشی قرار داشتند.
نیمی از آنها ۱۳ ایمیل مراقبتی از کارکنان بیمارستان در هفتههای پس از ترک بیمارستان دریافت کردند. ایمیلها به موارد شخصی که بیمار به اشتراک گذاشته بود، مانند عشق به پیادهروی، اشاره میکردند و برای آنها آرزوی موفقیت میکردند. سایر کهنه سربازان پیگیری معمولی دریافت کردند، اما ایمیلی دریافت نکردند.
دو سال بعد کسانی که ایمیلهای مراقبتی را دریافت کردند، نسبت به سایرین کمتر به دلیل خودکشی جان خود را از دست دادند. این مطالعه در سال ۲۰۱۴ در Contemporary Clinical Trials منتشر شد.
هوش مصنوعی جایگزین نظارت بالینی نمیشود
هوش مصنوعی میتواند دادههایی را که به دلیل محدودیتهای انسانیت خود از دست میدهیم، ضبط کند. فرآیندهای پیشگیری از خودکشی مبتنی بر دادههای بزرگ و هوش مصنوعی هستند، و فرآیندهایی هستند که بر اساس شهود بالینی و زیرکی بنا شدهاند.
هوش مصنوعی تنها به اندازه دادههایی است که بر اساس آن است. اگر آن دادهها فاقد تنوع باشند، ممکن است چیزهایی را از دست بدهند؛ و متغیرهایی که برای کهنه سربازان اعمال میشود ممکن است در غیرنظامیان متفاوت باشد.
توقف افکار خودکشی
گوگل نیز هوش مصنوعی را برای مقابله با خودکشی قرار میدهد. فناوری MUM (مدل یکپارچه چند وظیفه ای) آن به دنبال درک هدفی در پس آنچه در گوگل جستجو میکنیم، است.
MUM جستجوی Google را تقویت میکند. اغلب میتواند تفاوت بین جستجوی اطلاعات در مورد خودکشی برای شخصی که یک مقاله تحقیقاتی در مورد موضوع مینویسد، در مقابل جستجو برای اطلاعات در مورد نحوه یا مکان انجام خودکشی را تشخیص دهد.
وقتی «جستجوی Google» تشخیص میدهد که فردی ممکن است در بحران و در معرض خطر خودکشی باشد، اولین نتایج جستجویی که فرد دریافت میکند شماره «خط حیاتی پیشگیری از خودکشی ملی» و سایر منابع برای افراد در بحران است.
Google Home Assistant به همین صورت کار میکند. هنگامی که یک کاربر درخواستی را ارائه میدهد که نشان دهنده یک بحران مربوط به خودکشی است، این ابزار منابعی را ارائه میدهد که کمک میکنند.
MUM در تلاش است تا تفاوتهای ظریف زبان بحران را در ۷۵ زبان درک کند تا جستجوی Google بتواند خطوط تلفن یا منابع دیگر را در بسیاری از کشورها به افراد در بحران ارائه دهد.
بیشتر بخوانید