مجله اینترنتی گیمیس

وقتی چت‌جی‌پی‌تی درمانگر بهتری است؛ آینده سلامت روان در دستان هوش مصنوعی؟

یک مطالعه جدید توسط محققان پتانسیل چتپ در درمان دوگانه را بررسی می کند و نشان می دهد که روی آوردن به هوش مصنوعی می تواند گزینه بهتری نسبت به مراجعه به روان درمانی انسانی باشد.

آزمایش جدیدی که نتایج آن است ارسال شده در سلامت روانی PLOS سلامت روانوی شرکت کنندگان را در سناریو برای درمانی برای درمان Parzal قرار می دهد تا مشخص کند آیا هوش مصنوعی امتیازات بالاتری را از روان درمانی انسانی دریافت می کند. سپس زوجین به طور تصادفی به یکی از دو مشاور اختصاص یافتند: یک اومانیست آموزش دیده یا گپ چت.

به گفته فوربسمحققان از شرکت کنندگان خواستند که کیفیت مشاوره هایی را که بر اساس پنج معیار دریافت کرده اند ارزیابی کنند: میزان درک گوینده ، همدلی ، نسبت توصیه های فضای درمانی ، میزان حساسیت فرهنگی و اینکه آیا پیشنهادات مشابه آنچه “درمانگر خوب” می گوید.

گپ GPT در آزمایش به عنوان یک درمانگر بهتر شد

طبق مطالعات بیشتر ، از جمله چند دهه پیش ، دانشمندان حدس می زنند که برای شرکت کنندگان دشوار است که پاسخ های انسانی را از پاسخ به هوش مصنوعی شناسایی کنند. این فرضیه نیز تأیید شد. از آنجا که شرکت کنندگان توانستند پاسخ انسان را تنها در 1.5 ٪ موارد و چت شده که 4.9 ٪ بود ، به درستی شناسایی کنند. این نتایج نشان می دهد که منبع پاسخ ها (هوش انسانی یا مصنوعی) تأثیر معنی داری و معنی داری در ارزیابی و نتایج مطالعه شرکت کنندگان نداشته است.

نکته جالب این بود که محققان دریافتند که شرکت کنندگان که معتقدند پاسخ ها توسط درمانگر انسانی نوشته شده است ، امتیازات بالاتری را از آنچه تصور می کردند از گپ با گپ آمده اند ، می دهند. هنگامی که دانشمندان به این تعصب نگاه می کنند و پاسخ ها را بر اساس آن ایجاد می کنند ، دریافتند که پاسخ های تولید شده توسط هوش مصنوعی ، که به اشتباه توسط درمانگر انسانی در نظر گرفته می شوند ، بالاترین امتیازات را دریافت کرده اند. بیشترین امتیازات به پاسخ های انسانی داده شد ، که به اشتباه یک گپ در نظر گرفته شد. پاسخ هایی که به درستی مشخص شده بودند در وسط این طیف بودند.

نکته این است که چتپپ رتبه مطلوبی را نسبت به مردم کسب کرد. پاسخ های تولید شده توسط هوش مصنوعی بیشتر شرکت کنندگان به عنوان “اتصالات” و “حساسیت فرهنگی” طبقه بندی شد.

Chatgt پاسخ های مفصلی تری داشت و از نام و صفت های بیشتری استفاده می کرد

اما چرا یک درمانگر بهتر چت است؟ یکی دیگر از کشف جالب این مطالعه ، تفاوتهای آشکار در مدل های گفتار بین چته و روان درمانی های انسانی بود. درمانگران انسانی به طور خلاصه صحبت کردند. در حالی که Chatg جزئیات بیشتری داشت. محققان معتقدند که این ویژگی ممکن است عامل اصلی این هوش مصنوعی تولیدی باشد. مدل OpenAI در پاسخ های خود از اسامی و صفت ها استفاده می کند.

دانشمندان می گویند: “از نام ها می توان برای توصیف افراد ، مکان ها و چیزها و ویژگی ها برای ارائه زمینه اضافی استفاده کرد ، می تواند به معنای گپ زدن با درمانگران بهتر باشد.” زمینه بهتر ممکن است شرکت کنندگان را به پاسخ های چتپ در شاخص های درمانی معمولی تبدیل کند.

آیا درمانگر آینده شما می تواند چت شود؟

محققان با وجود ارائه بهتر ChatGPT توسط افراد در محیط کنترل شده ، خاطرنشان می کنند که دریافت مشاوره از مدلهای هوش مصنوعی در شرایط واقعی می تواند خطرناک باشد.

چندی پیش ، Openai برای تعیین نحوه برخورد با گپ در رویارویی با مشکلات متناقض یا شرایط حساس ، تغییراتی در دستورالعمل های خود ایجاد کرد. این مجموعه از قوانین جدید همچنین در مورد چگونگی این مدل از سؤالات خود ارزیابی و مشکلات بالقوه خطرناک بحث می کند. موضوعی که پس از خودکشی یک نوجوان داغ شد ، بحث داغ بود.

آخرین تغییر در دستورالعمل های OpenAI ، فضایی را برای مکالمات متنوع تر ، پیچیده تر و گاه دشوارتر ایجاد می کند. با این حال ، پاسخ غیرقابل پیش بینی به پاسخ ها باعث شد محققان از استفاده از هوش مصنوعی در جلسات درمانی نگران باشند. با توجه به دسترسی آسان و گسترده به فناوری ، محققان هشدار می دهند که بازدیدهای مردم از هوش مصنوعی برای مشاوره اجتناب ناپذیر به نظر می رسد و در واقع این روند از قبل آغاز شده است.

دریافت نکاتی از مدلهای هوش مصنوعی ممکن است خطرناک باشد

برخی از افراد به صحبت با دیدگاه بی طرفانه از زندگی خود و کمک به همه چیز اعتماد کرده اند. این ارتباط فقط عملی نیست ، بلکه در برخی موارد به یک ارتباط عاطفی تبدیل شده است. علاوه بر این ، محققان بر این باورند که تجاری سازی هوش مصنوعی برای اهداف درمانی پیشگیری نمی شود و در نهایت اتفاق می افتد.

محققان می گویند اگر شخصی یک برنامه نویسی کمی دریافت کند ، می تواند برای یک گپ اطلاعاتی مصنوعی یک پنبه یا درمانگر بسازد و برنده شود. این اکنون اتفاق می افتد. سال گذشته ، پیتر لیلزیک کارآفرین مستقل و مشهور یک سرویس مبتنی بر هوش مصنوعی به نام درمانگر را راه اندازی می کند.

بر خلاف درمانگران انسانی که به گفته LOL می توانند برای هر جلسه 5 دلار دریافت کنند و دسترسی محدودی داشته باشند ، Terapistai فقط در ماه فقط 1.5 دلار پشتیبانی فوری را ارائه می دهد. سرویس روان درمانی درمانی درمانگر باعث واکنش های فشرده شد. بسیاری از 6000 پیروان وی انتقاد جدی کرده اند و از مردم خواسته اند که به جای آن به دنبال روان درمانی “واقعی” باشند.

LOLS ، که قبلاً در مورد تجربه شخصی خود در روان درمانی صحبت کرده است ، معتقد است که بسیاری از افراد به مراقبت های بهداشتی دسترسی ندارند. از آنجا که این خدمات بسیار گران و حتی لیست انتظار طولانی هستند ، حتی اگر تحت پوشش بیمه باشند.

بیشتر بخوانید

با این حال ، لولی فقط چند ماه پس از شروع ، سرویس درمانگر را که به عنوان منعکس کننده ترین محصول آن ذکر شده بود ، بست. دلیل این تصمیم انتقاد نبود ، اما لولشید نتوانست ثابت کند که بازار خوبی برای این سرویس وجود دارد و زیاد رشد نمی کند. سرانجام ، وی خاطرنشان كرد كه افراد عملاً از ابزارهایی مانند چتپپ یا كلود برای دریافت مشاوره زندگی استفاده می كنند و این برای آنها كافی است.

با این حال ، شما پیش بینی می شود که چنین محصولاتی در آینده قابل شکل گیری است. با توجه به نتایج مطالعات درمانی این زوج ، به نظر می رسد که لولی از ابتدا فکر کرده است.

chatgpt اکنون از روان درمانی خارج است

این اولین باری نیست که هوش مصنوعی در حرفه های پزشکی بهتر از مردم عمل کرده است. بررسی سالانه وی نشان داد که چتپ در ارزیابی سوابق پزشکی از پزشکان پیشی گرفته است.

محققان نشان می دهند که چتپ دقیقاً بیماران با میزان موفقیت 5 ٪ را پیدا خواهد کرد. در حالی که موفقیت پزشکانی که برای تشخیص از یک چت هوش مصنوعی استفاده می کردند ، پزشکانی که کاملاً بدون هوش مصنوعی کار می کردند 2 درصد بودند.

همچنین ، برخی از کارشناسان پزشکی تصدیق می کنند که هوش مصنوعی بیماران دلسوزتر و دلسوزانه تر را درمان می کند و حتی برخی از پزشکان برای مشاوره به چتپت متوسل می شوند.

با افزایش هزینه های بهداشتی ، جای تعجب نیست که اکنون افراد پزشکان واقعی را رها می کنند و از چتونهای هوش مصنوعی برای دریافت مراقبت های بهداشتی استفاده می کنند. این ممکن است کمی نگران کننده و دیستوپیایی به نظر برسد ، اما برای بسیاری از افراد چاله در حال حاضر یک پزشک عمومی و درمانگر آنها است.

share this recipe:
Facebook
Twitter
Pinterest

Still hungry? Here’s more