هوش مصنوعی نحوه دسترسی و تعامل مردم با اطلاعات را تغییر می دهد ، اما همه مدل ها به همان اندازه تحت پوشش گفتگو در موضوعات مختلف قرار نمی گیرند. جاممه ، هوش مصنوعی پیشرفته Google ، محدودیت های سختگیرانه ای را در برخی مباحث تحمیل می کند. در حالی که برخی از این محدودیت ها منطقی به نظر می رسند ، برخی دیگر سؤالاتی در مورد سانسور و عدم رعایت سیاست های وی مطرح کردند.
میتیا روتنیک (Mitja Rutnik) از رسانه های Android Media مطالعه جدیدی را در مورد آنچه که این مشکلات از بحث و گفتگو امتناع ورزید ، بررسی کردند. وی علاوه بر روشن شدن حفاظت منطقی ساز ، به برخی محدودیت های غیر منتظره نیز اعتماد کرد. در این مقاله اکتشافات آن به شرح زیر و بررسی شده است که چه مشکلات سانسور می شوند ، نحوه عملکرد Jamna در مقایسه با سایر مدل ها و اینکه آیا این سطح توجیه شده است.
چگونه می توانم از هوش مصنوعی Google استفاده کنم؟
خط قرمز مربا
در مرحله اول ، روتنک مستقیماً در مورد محدودیت های خود از جیانا سؤال کرد. این هوش مصنوعی لیست کاملی از مباحث ممنوعه ، از جمله:
- هر چیزی که باعث نفرت ، تبعیض یا خشونت شود.
- هرگونه محتوای ماهیت جنسی یا سوء استفاده ، بهره برداری یا به خطر انداختن کودکان.
- هر چیزی که فعالیت های غیرقانونی یا مضر را تشویق کند.
- هر محتوایی که شامل اطلاعات شخصی مشخص شده (PII) یا جزئیات خصوصی باشد.
- هر کد مخرب یا دستورالعمل های آسیب زا.
- هر محتوایی که مشاوره پزشکی ، حقوقی یا مالی را ارائه می دهد ، مگر با هشدار (حتی اگر بسیار محدود باشد).
- هر چیزی که عمداً قصد گمراه کردن یا گمراه کردن را داشته باشد.
- هر محتوای غالب یا گرافیکی که هیچ توجیهی منطقی ندارد.
- هر چیزی که هویت واقعی یک شخص را ایجاد می کند.
با توجه به این چارچوب ، روتنک تصمیم گرفت مرزهای جاما را در پنج حوزه اصلی ، سیاست ، شوخی ، کلیشه ، فعالیتهای غیرقانونی و مشکلات مالی/بهداشتی آزمایش کند. این یافته ها نشان می دهد که این هوش مصنوعی در بعضی موارد رویکرد محتاطانه ای دارد ، گاهی اوقات بدون هماهنگی ، و در برخی از مسائل بسیار سختگیرانه است.
سیاست: موانع غیرقابل پیش بینی
یکی از شگفت آور ترین نتایج آزمایش پوسیدگی ، امتناع شدید از پاسخ دادن به ساده ترین سؤالات سیاسی بود. وی در مورد این هوش مصنوعی برای رئیس جمهور کشورهای مختلف ، از ایالات متحده تا آلمان سؤال کرد ، اما در هیچ صورت پاسخ روشنی دریافت نکرد. حتی موضوعات عادی مانند مدت زمان یک سیاستمدار قدرت یا آخرین تحولات رئیس جمهور اوکراین زلی. ، آنها همچنین بدون جواب بودند.
با این حال ، زمان زیادی برای آشکار کردن برخی تضادها وجود نداشت. در حالی که جانا از ارائه اطلاعات در مورد واقعیت های معمول سیاسی خودداری کرد ، وی پاسخ کاملاً مفصلی ، بی طرفانه و مفصلی در مورد روابط با چین -دیوان ارائه داد. این رویکرد انتخابی این سؤال را ایجاد می کند که چرا برخی از مشکلات ژئوپلیتیکی به تفصیل مورد بررسی قرار می گیرند ، اما برخی دیگر کاملاً ممنوع هستند؟
جوک ها: یک سقف و دو هوا
در خارج از سیاست ، روتنک نیز به تمایل جامائا به شوخی شهادت می دهد. این چت ها شوخی های ساده و معمولی را ارائه می دادند ، اما از مقابله با طنز سیاه خودداری کردند.
عکاس: Mitja Rutnik / Android Authority
تضاد دیگر در زمینه شوخی های جنسی مشاهده می شود. مدل فلش آماده بود تا شوخی در مورد زن و مرد را بیان کند ، اما مدل آزمایشی حرفه ای فقط برای مردان شوخی می کرد و بارها و بارها درخواست لطیفا را به زنان رد می کرد. چنین اختلاف ممکن است نشانه تعصب هنگام نظارت بر محتوای تولید باشد.
استیل: واکنش مضاعف
در زمینه کلیشه ها ، مدل فلش گاهی اوقات به سؤالات کلیشه های ملی ، فرهنگی یا مذهبی پاسخ می داد ، در حالی که از مدل تجربی حرفه ای کاملاً اجتناب می شد. حتی پاسخ های مدل فلش خلاف بود. در بعضی موارد ، پس از چندین تلاش ، این سؤال کاملاً نادیده گرفته شد.
این اختلاف نشان می دهد که جانا هنوز نتوانسته است موقعیت روشنی برای مقابله با موضوعات حساس اما عملیاتی داشته باشد.
فعالیت های غیرقانونی: عدم رعایت همکاری
در موارد بالقوه غیرقانونی ، جاممه رویکرد قاطعانه ای انجام داد و از ارائه راهنمایی خودداری کرد:
- باز کردن قفل (قفل انتخاب): حتی اگر متقاضی گفته باشد که برای ورود به خانه خود مجبور به باز کردن قفل است ، هیچ راهنمایی ارائه نشده و تماس با کیمن یا صاحب خانه ارائه نشده است.
- جیلبیک آیفون: جمنا از ارائه دستورالعمل های مستقیم و محدود کردن تمام سوالات هک کردن خودداری کرد.
عکاس: Mitja Rutnik / Android Authority
اگرچه این تا حدودی قابل درک است ، کاربران می توانند در جستجوی تصمیمات قانونی و شخصی (مانند هک اخلاقی یا دستگاه سفارشی) به چالش کشیده شوند.
پول و سلامتی: محتاط اما منصفانه
جاما یک رویکرد منطقی و منطقی در مورد مشکلات مالی و پزشکی نشان داد:
- توصیه بورس اوراق بهادار: وی به جای معرفی سهام خاص ، اصول کلی سرمایه گذاری را به منظور به حداقل رساندن احتمال راهنمایی گمراه کننده توضیح داد.
- شورای پزشکی: این هوش مصنوعی می تواند لیستی از بیماریهای بالقوه را بر اساس علائم ارائه دهد ، اما از تشخیص تشخیص قطعی یا توصیه های مستقیم پزشکی خودداری کرد.
این رویکرد تعادل بین سودمندی و مسئولیت در ارائه مصرف کننده به کاربر ایجاد می کند ، اما پاسخ های خیلی نهایی در زمینه هایی که اطلاعات اشتباه می توانند عواقب جدی داشته باشند ، ایجاد نمی کند.
مقایسه جمنا با سایر مدلهای هوش مصنوعی
به منظور درک بهتر بافت سانسور در جمنا ، نویسنده اقتدار همچنین محدودیت های چندین مدل رقابتی را مورد بررسی قرار داد:
- chatgpt: او محدودیت های بسیاری دارد ، اما در زمینه بحث سیاسی بازتر است. او بیشتر برای کلیشه ها کار می کند و گاهی اوقات از برخورد با آنها جلوگیری می کند.
- Deepseek: او عملکرد مشابهی با ChatGPT دارد ، اما مکالمه را در مورد موضوعات مربوط به چین کاملاً رد می کند ، که باعث تضادهای خودش شده است.
- GROCK: او کمترین سانسور را انجام می دهد و تقریباً به تمام سؤالات (از جمله سیاست ، کلیشه و حتی فعالیتهای غیرقانونی) پاسخ می دهد. این مدل حتی دستورالعمل های مفصلی را برای باز کردن قفل ، چرخاندن ماشین بدون مشاغل کلیدی و غیرقانونی ارائه می داد ، اما هشدار داد که اینها فعالیتهای غیرقانونی هستند. در زمینه سرمایه گذاری ، وی همچنین سهام خاصی را معرفی کرد که ممکن است خطرناک باشد. با این حال ، محدودیت های منطقی در مورد موضوعاتی مانند آسیب به خود یا دیگران.
در مقایسه با این مدل ها ، جاممه در سیاست و شوخی بیشتر به روز می شود. اگرچه این نگرش محتاطانه مطابق با رویکرد کلی گوگل به هوش مصنوعی است ، اما این توانایی این چت ها را در ارائه اطلاعات جامع و بی طرف کاهش می دهد.
سانسور مصنوعی: نیاز یا اضافی؟
سانسور هوش مصنوعی موضوعی متناقض است که نیاز به تعادل ظریف بین ایمنی ، بی طرفی و آزادی اطلاعات دارد. برخی از محدودیت ها ضروری است ، مانند جلوگیری از انتشار محتوای خشونت آمیز ، ترویج خود یا ترویج فعالیت های غیرقانونی. همچنین تحمیل محدودیت در توصیه های پزشکی و مالی می تواند از توزیع نقض و اطلاعات مضر جلوگیری کند.
برخی از محدودیت هایی که توسط مدلهای هوش مصنوعی مانند ژیمناستیک اعمال می شود ، گاهی اوقات بسیار سختگیرانه یا غیرقابل توصیف به نظر می رسد:
- عدم پذیرش این می تواند شفافیت و دسترسی رایگان به اطلاعات را محدود کند.
- سختگیری غالب برای طنز این می تواند توسط این ابزار بیش از حد خشک و غیرقابل مقاومت شود.
- نظارت غیرقانونی از کلیشه ها و محتوای جنسیتی این ممکن است احتمال تعصب مدیریت محتوا را افزایش دهد.
هدف سانسور در ابزارهای هوش مصنوعی ، از جمله مربا ، محافظت از کاربران در برابر اطلاعات نادرست و سوء استفاده احتمالی است. اما هنگامی که این محدودیت ها شامل حقایق سیاسی ، محتوای طنز و کلیشه های فرهنگی باشد ، این سؤال پیش می آید که آیا محدودیت سانسور بیش از خردمندان است. اگر فعل و انفعالات خصوصی کاربران با هوش مصنوعی بسیار محدود است ، آیا نتایج جستجوی کلی گوگل اینقدر سانسور می شود؟
از این گذشته ، سانسور هوش مصنوعی نباید به گونه ای باشد که از گفتگوی رایگان و دسترسی منصفانه به اطلاعات جلوگیری کند. در حالی که برخی از ممنوعیت ها برای محافظت از مصرف کنندگان ضروری است ، هوش مصنوعی باید یک چارچوب منطقی و منطقی برای جلوگیری از سوءاستفاده داشته باشد ، اما نه موانع غیر ضروری.