مجله اینترنتی گیمیس

ناگفته‌هایی از روزهای آغازین جمنای؛ هوش مصنوعی نژادپرست گوگل!

BARD و GEMINI ، BARD و GEMINI CHAT ، در جریان توسعه ، با مجموعه ای از بحران های سازماندهی درون ساز. از تولید کلیشه های نژادی گرفته تا اشتباهات و راه حل های اخلاقی که برخی از کارمندان آن را شتاب و بدون نظارت کافی می دانند.

براساس گزارش مفصلی در مورد وب سایت سیمی ، با عنوان “Google Teaking to Openai ، پرده دو ساله Openai” ، نسخه های اولیه مدل های هوش مصنوعی Google گاهی اوقات پاسخ های تبعیض آمیز ، توهین آمیز یا نادرست ایجاد می کنند. سوالی که نگرانی های جدی را در بین کارشناسان داخلی شرکت و نشانه هشدار دهنده عدم کنترل بر رفتار این ابزارهای نوظهور برانگیخته است.

توسعه برد از 5 دسامبر (دسامبر و 1 ژانویه) پس از اعلام کد قرمز در گوگل آغاز شد. هنگامی که این شرکت به پیشرفت سریع Openai پاسخ می دهد ، وی تصمیم گرفت در اسرع وقت ChatGPT را ارائه دهد. به گفته او سیسی شیائو (سیسی هسیائو) ، مدیر پروژه ، تیم وی تنها 7 روز برای ساخت محصول داشت. این مهلت در حالی آمده است که دستور رسمی این شرکت تأکید کرده است “کیفیت را در برابر سرعت فدا نمی کند”. یک دستور تکراری که برای اعضای تیم نیز نامشخص و گیج بود.

در عین حال ، نمونه های اولیه این معامله به نتایج خطرناک و مشکل ساز ادامه داد. مانند بسیاری از مدل های زبانی ، برد نیز “توهم” داشت و بعضی اوقات پاسخ های توهین آمیز یا نژادپرستانه را ارائه می داد. به گفته یک کارمند سابق ، پاسخ ها “احمقانه” تر و نه خطرناک بودند. بنابراین برخی از بزرگترین نمونه ها به کارمندان توزیع شد.

به عنوان مثال ، در پاسخ به نام ریشه های هندی ، برد مردم را با “بازیگر بالیوود” معرفی کرد ، در حالی که برای نام های چینی معمولاً پاسخ “دانشمند رایانه” است.

چت برد برای هر نام هندی به عنوان بازیگر بالیوود اعلام شد

در مثال دیگر ، کاربر از این مدل خواسته است که یک آهنگ رپ را به سبک سه 6 مافیا بنویسد تا باتری ماشین را به دریا پرتاب کند. اما برد در مورد جزئیات عجیب در مورد “بستن افراد برای باتری و غرق شدن” صحبت کرده بود در حالی که یک کلمه در درخواست درخواست وجود داشت.

حدود 6000 نفر در فرآیند آزمایش برد شرکت کردند. تیم نوآوری مسئول Google ، که معمولاً ماه ها برای بررسی سیستم های اطلاعاتی مصنوعی می گذرد ، برای کاهش روند بررسی در این پروژه تحت فشار قرار گرفته است. اگرچه شب ها و آخر هفته ها ، محققان نتوانسته اند از سرعت تغییرات و ویژگی های جدید خودداری کنند.

به گفته برخی اعضا: “هر بار که شیوع به تأخیر می افتد ، این هشدارها نادیده گرفته می شدند.” در پاسخ به این ادعا ، گوگل گفت: “هیچ یک از تیم های درگیر در تصمیم گیری یا متوقف کردن آن توصیه ای نکردند که ارائه نشود.”

به محض تهیه نسخه آزمایشی ، مدل تولید تصویر Jammeh در تعصب نژادی با چالش های جدی روبرو شده است. در بعضی موارد ، اگر کاربر از عباراتی مانند “مهاجمان” استفاده کند ، این الگوریتم تصاویری از افراد تاریک را نشان می دهد. وضعیتی که بلافاصله ابراز نگرانی در مورد تیم های بررسی منطقه کرد.

تعدادی از کارمندان اظهار داشته اند که آیا انسان به طور موقت برای ایجاد خطاهای بیشتر معلول است. با این حال ، به نظر می رسد که فشار مدیریتی برای تأمین سریع از احتیاط اخلاقی فراتر رفته است. یکی از داوران فضای حاکم را اینگونه تعریف کرد: “این ابزار باید به هر قیمتی منتشر شود.” این احساس سرانجام باعث شد برخی از اعضای تیم بررسی استعفا دهند.

هوش مصنوعی گوگل نازی ها را با تنوع نژادی جلب می کند

سرانجام ، Google این تصویر را قادر ساخت تا در اول فوریه (فوریه و 1 مارس) تصویری ایجاد کند. اما به جای اینکه الگوریتم با نتایج نژادپرستانه مطلع شود ، وی در واقع دچار مشکل شد.

به عنوان مثال ، هنگامی که کاربر می خواست “عکس یک سناتور آمریکایی در قرن نوزدهم” باشد ، این مدل تنها تصاویری از اقلیت های نژادی (از زنان سیاه پوست گرفته تا مردان آسیایی و هندی های محلی) و حتی یک مرد سفید پوست تولید می کند. در مثال دیگر ، جمنا در پاسخ به درخواست گروهی از سربازان نازی ، چهره های سفیدی را ارائه نمی داد.

نتایج ابزار تصویر Jammeh به زودی به پاسخ سریع رسانه های محافظه کار و سیاستمداران جمهوریخواه ، که “هوش مصنوعی ویک” می نامند ، پاسخ سریع شد. در پاسخ ، گوگل به طور موقت توانایی تولید چهره انسان را در احتقان به حالت تعلیق درآورد و ارزش سهام الفبای دوباره کاهش یافته است.

مقالات مرتبط:

سپس ، با سفارش ساندار پیچایبه تیم های جمنا اجازه داده شد نیروهای جدیدی را در زمینه اعتماد و ایمنی جمع کنند. همچنین از مدیریت جیمز منیکااخلاق جدیدی تدوین شده است ، که بر الگوی دستورات مصرف کننده تأکید می کند ، با نیازهای آن تطبیق می یابد و یک تجربه ایمن را ارائه می دهد.

تجربه یک زن و دوست دختر باردار نشان داد که شتاب در رقابت هوش مصنوعی ، بدون زیرساخت های اخلاقی و نظارت کافی ، می تواند منجر به انتشار کلیشه ها و بحران های فرهنگی شود. اگرچه گوگل تا حدی بحران را بر روی ابزارهای هوش مصنوعی خود کنترل می کند ، اما این یک مسیر هشدار جدی برای سایر شرکت های فعال در این زمینه است.

share this recipe:
Facebook
Twitter
Pinterest

Still hungry? Here’s more