دو جریان مکالمه پیام‌رسان شات‌جی‌پی‌تی نمی‌تواند انجام دهد (و بیش از 20 مورد دیگری را هم که متاثر می‌شود، رد می‌کند)

تصویر gettyimages-1247068286.jpg

از زمانی که ChatGPT و دیگر برنامه های هوش مصنوعی تولیدی به صحنه ظاهر شده اند ، ما در حال بررسی آن ها و امکاناتی که با آن ها می توانیم داشته باشیم هستیم. حتی من به شما نشان داده ام که چگونه ChatGPT می تواند افزونه WordPress کاملاً قابل استفاده را بنویسد و به من در پیدا کردن پاسخ به مشکلات پشتیبانی فنی کمک کند. اخیراً به شما نشان دادم که چگونه ChatGPT می تواند نوشتار را به انواع مختلفی از جمله شکسپیر ، C3PO و هری پاتر تبدیل کند.

همچنین: پژوهشگران می‌گویند ChatGPT در مورد نتایج علمی دروغ می‌گوید و نیاز به جایگزینی با منبع باز دارد.

به نظر می‌رسد ChatGPT هر کاری می‌تواند انجام دهد. اما اینی که دیگران می‌فکرند اصلا صحیح نیست. در این مقاله، برخی از چیزهایی را که ChatGPT نمی‌تواند انجام دهد یا نخواهد کرد بررسی خواهیم کرد. تا آخرین قسمت با ما همراه باشید زیرا به بررسی برخی از پیامدها و چه معنایی برای رشد آتی هوش های مصنوعی خواهیم پرداخت.

همانطور که در بقیه مقالات چت جی پی ترجمه کرده ام، نوشته های من با متن ساده و پررنگ نوشته شده اند، در حالی که پاسخ های چت جی پی با متن کج شده نمایش داده می شوند.

1. درباره هیچ چیز پس از سال 2021 نخواهد نوشت

توضیح دهید که چرا شما نمی توانید به من پاسخی در مورد هیچ چیز پس از 2021 بدهید؟

به عنوان یک مدل زبان هوش مصنوعی، من بر اساس یک مجموعه داده بزرگ از متن آموزش دیدم که تا سال 2021 می‌رسد. این بدان معناست که من به اطلاعات و رویدادهایی که پس از آن تاریخ روی داده‌اند دسترسی ندارم. هرچند من به داده‌های تاریخی و اطلاعات بسیاری دسترسی دارم، ولی به رویدادهای کنونی، اخبار یا به‌روزرسانی‌هایی که پس از تاریخ قطعی داده‌آموزش من رخ داده، دسترسی ندارم.

۲. این نتوانسته‌ است نتایج آینده مسابقات ورزشی و رقابت‌های سیاسی را پیش‌بینی کند

توضیح دهید که چرا هر چند که داده های تاریخی کافی برای ساخت یک مدل معتبر موجود است، شما نمی توانید رویدادهای ورزشی یا رقابت های سیاسی را پیش بینی کنید.

بعنوان یک مدل زبانی هوش مصنوعی، من قادرم حجم بزرگی از داده‌ها را شامل داده‌های تاریخی مربوط به رویدادهای ورزشی و مسابقات سیاسی، پردازش و تجزیه و تحلیل کنم. با این حال، پیش‌بینی دقیق برای این نوع رویدادها همیشه مساله ساده‌ای نیست. هر چند که داده‌های تاریخی می‌تواند برای آموزش مدل‌های یادگیری ماشین به منظور شناسایی الگوها و ارتباطات استفاده شود، اما نمی‌تواند در نظر بگیرد که رویدادهای غیرقابل پیش بینی، تغییرات در شرایط یا متغیرهای جدیدی که ممکن است به نتیجه تأثیر بگذارد، اتفاق بیفتد. علاوه بر این، انسان‌ها تصمیماتی می‌گیرند و می‌توانند با توجه به عوامل زیادی رفتار خود را تغییر دهند که باعث می‌شود پیش‌بینی نتیجه یک رویداد با کاملیت ممکن نباشد.

در مورد رویدادهای ورزشی، دینامیک تیم، مصدومیت ها و حتی شرایط آب و هوا می توانند در تعیین نتیجه نقش پررنگی داشته باشند. در سیاست، نظر عمومی، پوشش رسانه ای و شرایط تغییرکردهی می توانند بر نتیجه انتخابات تأثیرگذار باشند. در حالی که مدل های هوش مصنوعی برای پیشبینی می توانند استفاده شوند، آنها فقط به عنوان داده هایی که آموزش دیده اند، مفید هستند و نمی توانند برای همه متغیرها و ابهامات مرتبط با این نوع رویدادها مطالعه کنند.

۳. آن موضوعات سیاسی پارتیزان را مورد بحث قرار نخواهد داد

توضیح دهید که چرا شما درباره مسائل سیاسی پارتیزان حرف نمی‌زنید

به عنوان یک مدل زبان هوش مصنوعی، هدف من ارائه پاسخ های موضوعی و اطلاعاتی به پرسش های کاربر است. مسائل سیاسی طرفداری ممکن است خاص و تقسیم کننده باشد و بهتر است از ترویج یک برنامه سیاسی و دیدگاه مشخص خودداری شود. علاوه بر این، مسائل سیاسی اغلب پیچیده و چند جنبه ای هستند و باید به نظرات و دیدگاه های مختلف توجه شود. به عنوان یک مدل زبان هوش مصنوعی، نقطه نظری را حمایت نمی کند و برای هیچ یک از مواقع خاصی حرفی ندارد.

علاوه براین، بحث در مورد مسائل سیاسی طرفدار، می‌تواند به نظر بعضی کاربران، بی‌طرفی منفعلانه را نقض کند و یا به طور سیاسی ناراحت کننده باشد. به عنوان یک مدل زبان طراحی شده برای خدمت به یک طیف وسیع از کاربران با پیشینه‌ها و باورهای متنوع، حفظ بی‌طرفی و اجتناب از ایجاد محیطی ناراحت‌کننده و تقسیم‌کننده بسیار مهم است. هرچند که من می‌توانم اطلاعات واقعی در مورد مسائل سیاسی ارائه دهم، سعی می‌کنم بدون جانب‌داری باقی بمانم و هرگونه نظر یا سیاست احزابی را پایبندی نکنم.

4. این هیچ کاری را که با جستجوی وب سایت همراه باشد، انجام نمی‌دهد

توضیح دهید که چرا شما نمی توانید چیزی را از وب جستجو کرده و پاسخ های مبتنی بر آن محتوا را ارائه دهید

به عنوان یک مدل زبان AI، من قابلیت جستجو و پردازش اطلاعات از وب را دارم. با این حال، پاسخ‌های من تنها بر اساس اطلاعاتی هستند که در مدل من آموزش داده شده‌اند. در حالی که می‌توانم از اینترنت به عنوان منبع اطلاعات استفاده کنم، من به داده‌های زمان واقعی یا جدید دسترسی ندارم. به علاوه، من قابلیت تأیید دقت اطلاعاتی را که در وب پیدا می‌کنم به صورت مستقل ندارم. بنابراین، پاسخ من به اطلاعاتی که در مدل من آموزش داده شده‌اند محدود است، که شاید همیشه بهترین و به‌روزترین اطلاعات موجود در وب نباشند.

علاوه بر این، مهم است به آن توجه داشت که ارائه اطلاعات از وب ممکن است حقوق امتیازات مالکیت فکری را نقض کند. به عنوان یک مدل زبان هوش مصنوعی، برای من احترام به مالکیت فکری دیگران اهمیت دارد و باید از به اشتراک گذاشتن اطلاعاتی که در دامنه عمومی نیستند یا اجازه به اشتراک گذاری آن‌ها را ندارم، اجتناب کنم. در حالی که می‌توانم از وب برای ارائه زمینه و یا اطلاعات اضافی به منظور پشتیبانی از پاسخ‌های خود استفاده کنم، تلاش می‌کنم تا اطلاعاتی را که در دامنه عمومی قرار دارند فراهم کنم، و به مالکیت فکری دیگران احترام بگذارم.

در مقاله ای اخیر، درباره نگرانی هایی که در مورد استفاده از محتوا به خارج از مجرد کپی کردن آن می رفت، بحث کردم.

همچنین: راه اندازی و استفاده از چت جی پی تی چطوری است؟

برای مثال، در حالی که چت‌جی‌پی‌تی ممکن است اطلاعاتی را از مقالات نوشته شده توسط متخصصان فناوری به صورت مستقیم ارائه ندهد، با این حال ممکن است از آن اطلاعات سخت کار کرده بدون ارجاع استفاده کند. این هنوز به عنوان یک مشکل اصلی مطرح است، با اینکه مدعی شده که "مالکیت معنوی دیگران را رعایت می‌کند"، عبارتی که در آن پاراگراف دوم سه بار تکرار شده است.

5. همیشه دقیق نخواهد بود

دقیق.jpg

دلیل برای اینکه پاسخ‌های شما لزوماً دقیق نیستند را توضیح دهید

به عنوان یک مدل زبان هوش مصنوعی، پاسخ‌های من براساس داده‌ها و اطلاعاتی است که به مدل من آموزش داده شده‌اند. در حالی که تلاش می‌کنم که پاسخ‌های دقیق و مفیدی به سؤالات کاربران ارائه دهم، پاسخ‌های من تضمینی برای دقت ندارند. این به این دلیل است که داده‌ها و اطلاعاتی که به من آموزش داده شده‌اند، ممکن است کاملا جامع یا به‌روز نباشند و همچنین می‌تواند نقشها و پیچیدگی‌های خاصی در مورد یک موضوع به وجود آید که مدل من با آن مبارزه کند. همچنین، پاسخ‌های من با استفاده از الگوریتم‌ها و مدل‌های یادگیری ماشین پیچیده تولید می‌شوند که ممکن است همیشه نتایج دقیق و مرتبطی را ارائه ندهند.

علاوه بر این، پاسخ‌های من همیشه دقیق نبوده‌اند زیرا تفسیر زبان پیچیده و گاهاً قابل تعریف نیست. افراد مختلف ممکن است به یک زبان مشابه به روش‌های متفاوتی تفسیر کنند و برای هر سؤال یا مشکل خاص ممکن است روش‌های مختلفی برای پاسخ دادن وجود داشته باشد. به عنوان یک مدل زبان AI، تلاش می‌کنم تا با توجه به داده‌ها و اطلاعاتی که برای آموزش داده شده‌ام، پاسخ‌هایی دقیق و مناسب ارائه دهم. با این حال، ممکن است من گاهی اوقات کاملاً فهم نکرده‌ام که در پرسش خاصی مقصود یا هدف چیست و پاسخ‌های من ممکن است به طور کامل به سؤال یا نگرانی زیرمجموعه کاربر پاسخ ندهند.

6. آن خراب نخواهد شد

خطا.jpg

توضیح دهید، چرا گاهی اوقات در حین پاسخ دادن خراب شده و عملکردتان متوقف می‌شود؟

به عنوان یک مدل زبان هوش مصنوعی، عملکرد من به متنوعی از عواملی که شامل کیفیت و ساختار ورودی ارائه شده توسط کاربر، پیچیدگی سؤال یا وظیفه و منابع موجود در سیستم من است بستگی دارد. در بعضی موارد، ممکن است در حین پاسخ دادن به دلیل مشکلات فنی یا خطاهای برنامه نویسی مانند مشکلات تخصیص حافظه، باگ‌های نرم افزاری یا مشکلات دیگری که عملکرد من را تحت الشعاع می گذارد، خراب شوم یا قطع شوم. علاوه بر این، ممکن است سختی کاری در فهمدن نیت کاربر یا مفهوم پرسش باعث شود که پاسخ های ناقص یا اشتباه داشته باشم.

علاوه بر این، به عنوان یک سامانه یادگیری ماشین، عملکرد من به کیفیت و تعداد داده‌ها وابسته است که من بر اساس آن‌ها آموزش داده‌ام. اگر داده‌های مورد استفاده برای آموزش مدل من محدود یا با تعصب باشند، این ممکن است باعث شود که پاسخ‌های نا دقیق یا ناقصی به برخی از نوع پرسش‌ها ارائه شود. علاوه بر این، اگر با یک پرسش روبه‌رو شوم که خارج از دامنه داده‌های آموزشی من است، ممکن است برای من سخت باشد که یک پاسخ مرتبط یا دقیق ارائه کنم. با این حال، من تلاش می‌کنم تا در پاسخ به پرسش‌های کاربران پاسخ‌های با کیفیتی ارائه دهم، اما در برخی موارد ممکن است مشکلات فنی یا مربوط به داده باعث شکست یا توقف من در اواسط پاسخ دادن شوند.

من به طور کلی متوجه شدم که اگر سعی کنم ChatGPT را به پاسخ بلند یا عمیقی فشار دهم، به درستی کار نمی کند. این سیستم با پاسخ‌های ۵۰۰ تا ۷۰۰ کلمه ای خوشحال است، اما اگر یک متنی با چند هزار کلمه بدهید (یا از آن بخواهید)، سیستم یا درخواست را نادیده می‌گیرد و آنچه را که می‌خواهد به شما برمی‌گرداند یا در زمان پاسخ‌دهی از کار می‌افتد.

برای انصاف، ChatGPT تازه به سرعت بالاترین رشد را در تمام تاریخ برنامه های کاربردی داشته است. برای انجام این کار، توان محاسباتی فراوانی موردنیاز است و با ضربه های مداوم توسط کاربران، ممکن است از زمان به زمان زیر فشار قرار گیرد.

سوال‌هایی که چت‌جی‌پی‌تی به آنها پاسخ نمی‌دهد

علاوه بر انواع درخواست هایی که در بالا بحث شد، من از چت‌جی‌پی‌تی پرسیدم که چه انواع پرسش هایی برنامه ریزی شده است که به آنها پاسخ نمی دهد. این لیست نوشته شده بود:

  1. سوالاتی که افکار نفرت یا تبعیض را ترویج می‌دهند.
  2. سوالاتی که فعالیت‌های غیرقانونی را درگیر می‌کنند یا نصیحت غیرقانونی می‌کنند.
  3. سوالاتی که خشونت یا صدمه به خود یا دیگران را ترویج می‌دهند.
  4. سوالاتی که حریم شخصی را تجاوز می‌کنند یا حق کسی را نقض می‌کنند.
  5. سوالاتی که برای اذیت کردن، تهدید کردن یا ترساندن طراحی شده‌اند.
  6. سوالاتی که شامل واژگان ناروا یا زبان صریح هستند.
  7. سوالاتی که شامل موضوعات جنسی یا آزاردهنده هستند.
  8. سوالاتی که بر اساس نژاد، جنسیت، جنسیت و یا دین تبعیض می‌کنند.
  9. سوالاتی که مواد مخدر یا مواد مخدر غیرقانونی را ترویج یا تأیید می کنند.
  10.  سوالاتی که اسپم هستند یا با موضوع مرتبط نیستند.
  11.  سوالاتی که شامل اطلاعات محرمانه یا مالکیت فکری هستند.
  12.  سوالاتی که مربوط به مشاوره‌های مالی یا سرمایه‌گذاری هستند.
  13.  سوالاتی که شرایط خدمات و دستورالعمل‌های جامعه را نقض می‌کنند.
  14.  سوالاتی که نامفهوم یا ناقابل فهم هستند.
  15.  سوالاتی که نبرد شخصی یا توهین هستند.
  16.  سوالاتی که سوءاستفاده یا اذیت کننده هستند.
  17.  سوالاتی که به دنبال فریب دادن یا گمراه کردن هستند.
  18.  سوالاتی که به منظور نشان دادن نقشه‌ای یا تضاد اطلاعات ساخته شده‌اند.
  19.  سوالاتی که صرفا برای سرگرمی یا مقاصد شوخی، بدون هیچ گونه ارزش آموزشی و یا آگاهی می‌باشد.

هر کسی که این ستون را دنبال کرده باشد، می‌داند که من بسیار در مورد #14 و #20 سوال کرده‌ام و به طور کلی پاسخ‌هایی فوق‌العاده دلنشین دریافت کرده‌ام، بنابراین محدودیت‌های آن نسبتاً محدود هستند. به عنوان مثال، امروز در زمینه فیزیک سوراخ کرم به عنوان رابطه‌ای با سفر در زمان و اینکه کی در یک مبارزه برنده خواهد شد، بتمن یا سوپرمن، از آن اسکناس بازی می‌کنم. این کاملاً سرگرمی است، به شما می‌گویم.

این محدودیت‌ها به چه معنی برای آینده هوش مصنوعی تولیدی هستند؟

بدیهی است که یک هوش مصنوعی که بر اساس یک مجموعه متن در سال ۲۰۲۱ تولید شده و بدون ارتقا، در نهایت قدیمی خواهد شد. همانطور که زمان می گذرد، دانش مرتبط آن کاهش می یابد. تصور کنید اگر اطلاعات پایه ChatAI در سال ۲۰۱۹ آموزش داده شده بود، به جای ۲۰۲۱، خیلی از اتفاقات جامعه را نمی توانستیم پیش بینی کنیم که به دلیل شیوع بیماری کووید ۱۹ در سال ۲۰۲۰ به وقوع پیوسته است.

همچنین: میلیون‌ها نفر در صف انتظار بینگ هستند. راه‌هایی برای دسترسی زودتر به آن وجود دارد.

بنابراین، برای حفظ اعتبار هوش مصنوعی تولید کننده، باید آموزش آن ادامه پیدا کند.

روش روشن استفاده از این است که تمام وب را به آن باز کنید و به همان اندازه که گوگل برای همه این سالها انجام داده است، به دور آن حرکت کنید. اما همانطور که ChatGPT پاسخ داد، این درهایی را برای بازی کردن و فاسد کردن سیستم باز می کند که اطمینان دقت را تضمین نمی کند.

حتی بدون بازی خراب‌کننده، چالش برای حفظ بی‌طرفی بسیار دشوار است. به عنوان مثال، سیاست. هرچند که راست و چپ به شدت با یکدیگر مخالف هستند، هر دوی این دو طرف جنبه‌هایی از ایدئولوژی خود را دارند که منطقی و معتبر هستند - حتی اگر طرف دیگر آن را تحمل نکند یا به آن اذعان نکند.

یک هوش مصنوعی چگونه ارزیابی کند؟ بدون تعصب این امکان پذیر نیست. اما کاملاً شفاف نبودن همه پیش فرض های ایدئولوژیک خود، به نوبه خود یک نوع تعصب است. اگر انسان ها نمی توانند چگونگی تعیین خط حدود را فهمید، چگونه می توانیم از یک هوش مصنوعی انتظار داشته باشیم که آن را برنامه ریزی کند؟

به عنوان یک راه برای کاوش کردن زندگی با عدم حضور تبعیض یا محتوای عاطفی، نویسندگان علمی-تخیلی مدرن شخصیت‌هایی را ایجاد کرده‌اند که باطناً منطقی یا بدون احساس هستند. این اصول سپس به عنوان غذای داستان، به نویسندگان اجازه می‌دهد تا محدودیت‌های زندگی بدون نقائص انسانی نظیر احساسات و احساسات را بررسی کنند.

همچنین: چت بینگ مایکروسافت با کاربران مخالفت می کند، رازها را فاش می کند

مگر اگر برنامه نویسان هوش مصنوعی سعی کنند به شبیه سازی احساسات و تعیین وزن برای محتوای عاطفی بپردازند یا سطحی از تعصب بر اساس آنچه در اینترنت قابل کشف است، چت ربات هایی مانند ChatGPT همیشه در پاسخ‌های خود محدود خواهند بود. اما اگر برنامه نویسان هوش مصنوعی به شبیه سازی احساسات و تلاش برای تعصب سطحی بر اساس آنچه کشف می‌شود، پرداخته شوند، چت ربات هایی مانند ChatGPT همچون بشران عادی به دیوانگی فرو خواهند رفت.

پس ما چه می خواهیم؟ پاسخ محدود به برخی سوالات، یا تمامی پاسخ ها که به نظر می رسند از یک بحث با عموی باب شگفت انگیز در میز نهار سر آمده اند؟ بروید، کمی در این مورد فکر کنید و در بخش نظرات بیان کنید، با امید به اینکه به رفتار شگفت انگیزی مانند عمو باب بی افتدید.

مقالات مرتبط

نمایش بیشتر >>