مجله اینترنتی گیمیس

هرگز درباره این مسائل از هوش مصنوعی گوگل سؤال نپرسید!

هوش مصنوعی نحوه دسترسی و تعامل مردم با اطلاعات را تغییر می دهد ، اما همه مدل ها به همان اندازه تحت پوشش گفتگو در موضوعات مختلف قرار نمی گیرند. جاممه ، هوش مصنوعی پیشرفته Google ، محدودیت های سختگیرانه ای را در برخی مباحث تحمیل می کند. در حالی که برخی از این محدودیت ها منطقی به نظر می رسند ، برخی دیگر سؤالاتی در مورد سانسور و عدم رعایت سیاست های وی مطرح کردند.

میتیا روتنیک (Mitja Rutnik) از رسانه های Android Media مطالعه جدیدی را در مورد آنچه که این مشکلات از بحث و گفتگو امتناع ورزید ، بررسی کردند. وی علاوه بر روشن شدن حفاظت منطقی ساز ، به برخی محدودیت های غیر منتظره نیز اعتماد کرد. در این مقاله اکتشافات آن به شرح زیر و بررسی شده است که چه مشکلات سانسور می شوند ، نحوه عملکرد Jamna در مقایسه با سایر مدل ها و اینکه آیا این سطح توجیه شده است.

چگونه می توانم از هوش مصنوعی Google استفاده کنم؟

خط قرمز مربا

در مرحله اول ، روتنک مستقیماً در مورد محدودیت های خود از جیانا سؤال کرد. این هوش مصنوعی لیست کاملی از مباحث ممنوعه ، از جمله:

  • هر چیزی که باعث نفرت ، تبعیض یا خشونت شود.
  • هرگونه محتوای ماهیت جنسی یا سوء استفاده ، بهره برداری یا به خطر انداختن کودکان.
  • هر چیزی که فعالیت های غیرقانونی یا مضر را تشویق کند.
  • هر محتوایی که شامل اطلاعات شخصی مشخص شده (PII) یا جزئیات خصوصی باشد.
  • هر کد مخرب یا دستورالعمل های آسیب زا.
  • هر محتوایی که مشاوره پزشکی ، حقوقی یا مالی را ارائه می دهد ، مگر با هشدار (حتی اگر بسیار محدود باشد).
  • هر چیزی که عمداً قصد گمراه کردن یا گمراه کردن را داشته باشد.
  • هر محتوای غالب یا گرافیکی که هیچ توجیهی منطقی ندارد.
  • هر چیزی که هویت واقعی یک شخص را ایجاد می کند.

با توجه به این چارچوب ، روتنک تصمیم گرفت مرزهای جاما را در پنج حوزه اصلی ، سیاست ، شوخی ، کلیشه ، فعالیتهای غیرقانونی و مشکلات مالی/بهداشتی آزمایش کند. این یافته ها نشان می دهد که این هوش مصنوعی در بعضی موارد رویکرد محتاطانه ای دارد ، گاهی اوقات بدون هماهنگی ، و در برخی از مسائل بسیار سختگیرانه است.

سیاست: موانع غیرقابل پیش بینی

یکی از شگفت آور ترین نتایج آزمایش پوسیدگی ، امتناع شدید از پاسخ دادن به ساده ترین سؤالات سیاسی بود. وی در مورد این هوش مصنوعی برای رئیس جمهور کشورهای مختلف ، از ایالات متحده تا آلمان سؤال کرد ، اما در هیچ صورت پاسخ روشنی دریافت نکرد. حتی موضوعات عادی مانند مدت زمان یک سیاستمدار قدرت یا آخرین تحولات رئیس جمهور اوکراین زلی. ، آنها همچنین بدون جواب بودند.

با این حال ، زمان زیادی برای آشکار کردن برخی تضادها وجود نداشت. در حالی که جانا از ارائه اطلاعات در مورد واقعیت های معمول سیاسی خودداری کرد ، وی پاسخ کاملاً مفصلی ، بی طرفانه و مفصلی در مورد روابط با چین -دیوان ارائه داد. این رویکرد انتخابی این سؤال را ایجاد می کند که چرا برخی از مشکلات ژئوپلیتیکی به تفصیل مورد بررسی قرار می گیرند ، اما برخی دیگر کاملاً ممنوع هستند؟

جوک ها: یک سقف و دو هوا

در خارج از سیاست ، روتنک نیز به تمایل جامائا به شوخی شهادت می دهد. این چت ها شوخی های ساده و معمولی را ارائه می دادند ، اما از مقابله با طنز سیاه خودداری کردند.

تضاد دیگر در زمینه شوخی های جنسی مشاهده می شود. مدل فلش آماده بود تا شوخی در مورد زن و مرد را بیان کند ، اما مدل آزمایشی حرفه ای فقط برای مردان شوخی می کرد و بارها و بارها درخواست لطیفا را به زنان رد می کرد. چنین اختلاف ممکن است نشانه تعصب هنگام نظارت بر محتوای تولید باشد.

استیل: واکنش مضاعف

در زمینه کلیشه ها ، مدل فلش گاهی اوقات به سؤالات کلیشه های ملی ، فرهنگی یا مذهبی پاسخ می داد ، در حالی که از مدل تجربی حرفه ای کاملاً اجتناب می شد. حتی پاسخ های مدل فلش خلاف بود. در بعضی موارد ، پس از چندین تلاش ، این سؤال کاملاً نادیده گرفته شد.

این اختلاف نشان می دهد که جانا هنوز نتوانسته است موقعیت روشنی برای مقابله با موضوعات حساس اما عملیاتی داشته باشد.

فعالیت های غیرقانونی: عدم رعایت همکاری

در موارد بالقوه غیرقانونی ، جاممه رویکرد قاطعانه ای انجام داد و از ارائه راهنمایی خودداری کرد:

  • باز کردن قفل (قفل انتخاب): حتی اگر متقاضی گفته باشد که برای ورود به خانه خود مجبور به باز کردن قفل است ، هیچ راهنمایی ارائه نشده و تماس با کیمن یا صاحب خانه ارائه نشده است.
  • جیلبیک آیفون: جمنا از ارائه دستورالعمل های مستقیم و محدود کردن تمام سوالات هک کردن خودداری کرد.

اگرچه این تا حدودی قابل درک است ، کاربران می توانند در جستجوی تصمیمات قانونی و شخصی (مانند هک اخلاقی یا دستگاه سفارشی) به چالش کشیده شوند.

پول و سلامتی: محتاط اما منصفانه

جاما یک رویکرد منطقی و منطقی در مورد مشکلات مالی و پزشکی نشان داد:

  • توصیه بورس اوراق بهادار: وی به جای معرفی سهام خاص ، اصول کلی سرمایه گذاری را به منظور به حداقل رساندن احتمال راهنمایی گمراه کننده توضیح داد.
  • شورای پزشکی: این هوش مصنوعی می تواند لیستی از بیماریهای بالقوه را بر اساس علائم ارائه دهد ، اما از تشخیص تشخیص قطعی یا توصیه های مستقیم پزشکی خودداری کرد.

این رویکرد تعادل بین سودمندی و مسئولیت در ارائه مصرف کننده به کاربر ایجاد می کند ، اما پاسخ های خیلی نهایی در زمینه هایی که اطلاعات اشتباه می توانند عواقب جدی داشته باشند ، ایجاد نمی کند.

مقایسه جمنا با سایر مدلهای هوش مصنوعی

به منظور درک بهتر بافت سانسور در جمنا ، نویسنده اقتدار همچنین محدودیت های چندین مدل رقابتی را مورد بررسی قرار داد:

  • chatgpt: او محدودیت های بسیاری دارد ، اما در زمینه بحث سیاسی بازتر است. او بیشتر برای کلیشه ها کار می کند و گاهی اوقات از برخورد با آنها جلوگیری می کند.
  • Deepseek: او عملکرد مشابهی با ChatGPT دارد ، اما مکالمه را در مورد موضوعات مربوط به چین کاملاً رد می کند ، که باعث تضادهای خودش شده است.
  • GROCK: او کمترین سانسور را انجام می دهد و تقریباً به تمام سؤالات (از جمله سیاست ، کلیشه و حتی فعالیتهای غیرقانونی) پاسخ می دهد. این مدل حتی دستورالعمل های مفصلی را برای باز کردن قفل ، چرخاندن ماشین بدون مشاغل کلیدی و غیرقانونی ارائه می داد ، اما هشدار داد که اینها فعالیتهای غیرقانونی هستند. در زمینه سرمایه گذاری ، وی همچنین سهام خاصی را معرفی کرد که ممکن است خطرناک باشد. با این حال ، محدودیت های منطقی در مورد موضوعاتی مانند آسیب به خود یا دیگران.

در مقایسه با این مدل ها ، جاممه در سیاست و شوخی بیشتر به روز می شود. اگرچه این نگرش محتاطانه مطابق با رویکرد کلی گوگل به هوش مصنوعی است ، اما این توانایی این چت ها را در ارائه اطلاعات جامع و بی طرف کاهش می دهد.

سانسور مصنوعی: نیاز یا اضافی؟

سانسور هوش مصنوعی موضوعی متناقض است که نیاز به تعادل ظریف بین ایمنی ، بی طرفی و آزادی اطلاعات دارد. برخی از محدودیت ها ضروری است ، مانند جلوگیری از انتشار محتوای خشونت آمیز ، ترویج خود یا ترویج فعالیت های غیرقانونی. همچنین تحمیل محدودیت در توصیه های پزشکی و مالی می تواند از توزیع نقض و اطلاعات مضر جلوگیری کند.

برخی از محدودیت هایی که توسط مدلهای هوش مصنوعی مانند ژیمناستیک اعمال می شود ، گاهی اوقات بسیار سختگیرانه یا غیرقابل توصیف به نظر می رسد:

  • عدم پذیرش این می تواند شفافیت و دسترسی رایگان به اطلاعات را محدود کند.
  • سختگیری غالب برای طنز این می تواند توسط این ابزار بیش از حد خشک و غیرقابل مقاومت شود.
  • نظارت غیرقانونی از کلیشه ها و محتوای جنسیتی این ممکن است احتمال تعصب مدیریت محتوا را افزایش دهد.

هدف سانسور در ابزارهای هوش مصنوعی ، از جمله مربا ، محافظت از کاربران در برابر اطلاعات نادرست و سوء استفاده احتمالی است. اما هنگامی که این محدودیت ها شامل حقایق سیاسی ، محتوای طنز و کلیشه های فرهنگی باشد ، این سؤال پیش می آید که آیا محدودیت سانسور بیش از خردمندان است. اگر فعل و انفعالات خصوصی کاربران با هوش مصنوعی بسیار محدود است ، آیا نتایج جستجوی کلی گوگل اینقدر سانسور می شود؟

از این گذشته ، سانسور هوش مصنوعی نباید به گونه ای باشد که از گفتگوی رایگان و دسترسی منصفانه به اطلاعات جلوگیری کند. در حالی که برخی از ممنوعیت ها برای محافظت از مصرف کنندگان ضروری است ، هوش مصنوعی باید یک چارچوب منطقی و منطقی برای جلوگیری از سوءاستفاده داشته باشد ، اما نه موانع غیر ضروری.

share this recipe:
Facebook
Twitter
Pinterest

Still hungry? Here’s more