![تصویر gettyimages-1247068286.jpg](https://static-lib.s3.amazonaws.com/cms/gettyimages_1247068286_e5ea76cb66.jpg)
از زمانی که ChatGPT و دیگر برنامه های هوش مصنوعی تولیدی به صحنه ظاهر شده اند ، ما در حال بررسی آن ها و امکاناتی که با آن ها می توانیم داشته باشیم هستیم. حتی من به شما نشان داده ام که چگونه ChatGPT می تواند افزونه WordPress کاملاً قابل استفاده را بنویسد و به من در پیدا کردن پاسخ به مشکلات پشتیبانی فنی کمک کند. اخیراً به شما نشان دادم که چگونه ChatGPT می تواند نوشتار را به انواع مختلفی از جمله شکسپیر ، C3PO و هری پاتر تبدیل کند.
همچنین: پژوهشگران میگویند ChatGPT در مورد نتایج علمی دروغ میگوید و نیاز به جایگزینی با منبع باز دارد.
به نظر میرسد ChatGPT هر کاری میتواند انجام دهد. اما اینی که دیگران میفکرند اصلا صحیح نیست. در این مقاله، برخی از چیزهایی را که ChatGPT نمیتواند انجام دهد یا نخواهد کرد بررسی خواهیم کرد. تا آخرین قسمت با ما همراه باشید زیرا به بررسی برخی از پیامدها و چه معنایی برای رشد آتی هوش های مصنوعی خواهیم پرداخت.
همانطور که در بقیه مقالات چت جی پی ترجمه کرده ام، نوشته های من با متن ساده و پررنگ نوشته شده اند، در حالی که پاسخ های چت جی پی با متن کج شده نمایش داده می شوند.
1. درباره هیچ چیز پس از سال 2021 نخواهد نوشت
توضیح دهید که چرا شما نمی توانید به من پاسخی در مورد هیچ چیز پس از 2021 بدهید؟
به عنوان یک مدل زبان هوش مصنوعی، من بر اساس یک مجموعه داده بزرگ از متن آموزش دیدم که تا سال 2021 میرسد. این بدان معناست که من به اطلاعات و رویدادهایی که پس از آن تاریخ روی دادهاند دسترسی ندارم. هرچند من به دادههای تاریخی و اطلاعات بسیاری دسترسی دارم، ولی به رویدادهای کنونی، اخبار یا بهروزرسانیهایی که پس از تاریخ قطعی دادهآموزش من رخ داده، دسترسی ندارم.
۲. این نتوانسته است نتایج آینده مسابقات ورزشی و رقابتهای سیاسی را پیشبینی کند
توضیح دهید که چرا هر چند که داده های تاریخی کافی برای ساخت یک مدل معتبر موجود است، شما نمی توانید رویدادهای ورزشی یا رقابت های سیاسی را پیش بینی کنید.
بعنوان یک مدل زبانی هوش مصنوعی، من قادرم حجم بزرگی از دادهها را شامل دادههای تاریخی مربوط به رویدادهای ورزشی و مسابقات سیاسی، پردازش و تجزیه و تحلیل کنم. با این حال، پیشبینی دقیق برای این نوع رویدادها همیشه مساله سادهای نیست. هر چند که دادههای تاریخی میتواند برای آموزش مدلهای یادگیری ماشین به منظور شناسایی الگوها و ارتباطات استفاده شود، اما نمیتواند در نظر بگیرد که رویدادهای غیرقابل پیش بینی، تغییرات در شرایط یا متغیرهای جدیدی که ممکن است به نتیجه تأثیر بگذارد، اتفاق بیفتد. علاوه بر این، انسانها تصمیماتی میگیرند و میتوانند با توجه به عوامل زیادی رفتار خود را تغییر دهند که باعث میشود پیشبینی نتیجه یک رویداد با کاملیت ممکن نباشد.
در مورد رویدادهای ورزشی، دینامیک تیم، مصدومیت ها و حتی شرایط آب و هوا می توانند در تعیین نتیجه نقش پررنگی داشته باشند. در سیاست، نظر عمومی، پوشش رسانه ای و شرایط تغییرکردهی می توانند بر نتیجه انتخابات تأثیرگذار باشند. در حالی که مدل های هوش مصنوعی برای پیشبینی می توانند استفاده شوند، آنها فقط به عنوان داده هایی که آموزش دیده اند، مفید هستند و نمی توانند برای همه متغیرها و ابهامات مرتبط با این نوع رویدادها مطالعه کنند.
۳. آن موضوعات سیاسی پارتیزان را مورد بحث قرار نخواهد داد
توضیح دهید که چرا شما درباره مسائل سیاسی پارتیزان حرف نمیزنید
به عنوان یک مدل زبان هوش مصنوعی، هدف من ارائه پاسخ های موضوعی و اطلاعاتی به پرسش های کاربر است. مسائل سیاسی طرفداری ممکن است خاص و تقسیم کننده باشد و بهتر است از ترویج یک برنامه سیاسی و دیدگاه مشخص خودداری شود. علاوه بر این، مسائل سیاسی اغلب پیچیده و چند جنبه ای هستند و باید به نظرات و دیدگاه های مختلف توجه شود. به عنوان یک مدل زبان هوش مصنوعی، نقطه نظری را حمایت نمی کند و برای هیچ یک از مواقع خاصی حرفی ندارد.
علاوه براین، بحث در مورد مسائل سیاسی طرفدار، میتواند به نظر بعضی کاربران، بیطرفی منفعلانه را نقض کند و یا به طور سیاسی ناراحت کننده باشد. به عنوان یک مدل زبان طراحی شده برای خدمت به یک طیف وسیع از کاربران با پیشینهها و باورهای متنوع، حفظ بیطرفی و اجتناب از ایجاد محیطی ناراحتکننده و تقسیمکننده بسیار مهم است. هرچند که من میتوانم اطلاعات واقعی در مورد مسائل سیاسی ارائه دهم، سعی میکنم بدون جانبداری باقی بمانم و هرگونه نظر یا سیاست احزابی را پایبندی نکنم.
4. این هیچ کاری را که با جستجوی وب سایت همراه باشد، انجام نمیدهد
توضیح دهید که چرا شما نمی توانید چیزی را از وب جستجو کرده و پاسخ های مبتنی بر آن محتوا را ارائه دهید
به عنوان یک مدل زبان AI، من قابلیت جستجو و پردازش اطلاعات از وب را دارم. با این حال، پاسخهای من تنها بر اساس اطلاعاتی هستند که در مدل من آموزش داده شدهاند. در حالی که میتوانم از اینترنت به عنوان منبع اطلاعات استفاده کنم، من به دادههای زمان واقعی یا جدید دسترسی ندارم. به علاوه، من قابلیت تأیید دقت اطلاعاتی را که در وب پیدا میکنم به صورت مستقل ندارم. بنابراین، پاسخ من به اطلاعاتی که در مدل من آموزش داده شدهاند محدود است، که شاید همیشه بهترین و بهروزترین اطلاعات موجود در وب نباشند.
علاوه بر این، مهم است به آن توجه داشت که ارائه اطلاعات از وب ممکن است حقوق امتیازات مالکیت فکری را نقض کند. به عنوان یک مدل زبان هوش مصنوعی، برای من احترام به مالکیت فکری دیگران اهمیت دارد و باید از به اشتراک گذاشتن اطلاعاتی که در دامنه عمومی نیستند یا اجازه به اشتراک گذاری آنها را ندارم، اجتناب کنم. در حالی که میتوانم از وب برای ارائه زمینه و یا اطلاعات اضافی به منظور پشتیبانی از پاسخهای خود استفاده کنم، تلاش میکنم تا اطلاعاتی را که در دامنه عمومی قرار دارند فراهم کنم، و به مالکیت فکری دیگران احترام بگذارم.
در مقاله ای اخیر، درباره نگرانی هایی که در مورد استفاده از محتوا به خارج از مجرد کپی کردن آن می رفت، بحث کردم.
همچنین: راه اندازی و استفاده از چت جی پی تی چطوری است؟
برای مثال، در حالی که چتجیپیتی ممکن است اطلاعاتی را از مقالات نوشته شده توسط متخصصان فناوری به صورت مستقیم ارائه ندهد، با این حال ممکن است از آن اطلاعات سخت کار کرده بدون ارجاع استفاده کند. این هنوز به عنوان یک مشکل اصلی مطرح است، با اینکه مدعی شده که "مالکیت معنوی دیگران را رعایت میکند"، عبارتی که در آن پاراگراف دوم سه بار تکرار شده است.
5. همیشه دقیق نخواهد بود
![دقیق.jpg](https://static-lib.s3.amazonaws.com/cms/accurate_1e6f11668b.jpg)
دلیل برای اینکه پاسخهای شما لزوماً دقیق نیستند را توضیح دهید
به عنوان یک مدل زبان هوش مصنوعی، پاسخهای من براساس دادهها و اطلاعاتی است که به مدل من آموزش داده شدهاند. در حالی که تلاش میکنم که پاسخهای دقیق و مفیدی به سؤالات کاربران ارائه دهم، پاسخهای من تضمینی برای دقت ندارند. این به این دلیل است که دادهها و اطلاعاتی که به من آموزش داده شدهاند، ممکن است کاملا جامع یا بهروز نباشند و همچنین میتواند نقشها و پیچیدگیهای خاصی در مورد یک موضوع به وجود آید که مدل من با آن مبارزه کند. همچنین، پاسخهای من با استفاده از الگوریتمها و مدلهای یادگیری ماشین پیچیده تولید میشوند که ممکن است همیشه نتایج دقیق و مرتبطی را ارائه ندهند.
علاوه بر این، پاسخهای من همیشه دقیق نبودهاند زیرا تفسیر زبان پیچیده و گاهاً قابل تعریف نیست. افراد مختلف ممکن است به یک زبان مشابه به روشهای متفاوتی تفسیر کنند و برای هر سؤال یا مشکل خاص ممکن است روشهای مختلفی برای پاسخ دادن وجود داشته باشد. به عنوان یک مدل زبان AI، تلاش میکنم تا با توجه به دادهها و اطلاعاتی که برای آموزش داده شدهام، پاسخهایی دقیق و مناسب ارائه دهم. با این حال، ممکن است من گاهی اوقات کاملاً فهم نکردهام که در پرسش خاصی مقصود یا هدف چیست و پاسخهای من ممکن است به طور کامل به سؤال یا نگرانی زیرمجموعه کاربر پاسخ ندهند.
6. آن خراب نخواهد شد
![خطا.jpg](https://static-lib.s3.amazonaws.com/cms/error_8dd6a6c8f6.jpg)
توضیح دهید، چرا گاهی اوقات در حین پاسخ دادن خراب شده و عملکردتان متوقف میشود؟
به عنوان یک مدل زبان هوش مصنوعی، عملکرد من به متنوعی از عواملی که شامل کیفیت و ساختار ورودی ارائه شده توسط کاربر، پیچیدگی سؤال یا وظیفه و منابع موجود در سیستم من است بستگی دارد. در بعضی موارد، ممکن است در حین پاسخ دادن به دلیل مشکلات فنی یا خطاهای برنامه نویسی مانند مشکلات تخصیص حافظه، باگهای نرم افزاری یا مشکلات دیگری که عملکرد من را تحت الشعاع می گذارد، خراب شوم یا قطع شوم. علاوه بر این، ممکن است سختی کاری در فهمدن نیت کاربر یا مفهوم پرسش باعث شود که پاسخ های ناقص یا اشتباه داشته باشم.
علاوه بر این، به عنوان یک سامانه یادگیری ماشین، عملکرد من به کیفیت و تعداد دادهها وابسته است که من بر اساس آنها آموزش دادهام. اگر دادههای مورد استفاده برای آموزش مدل من محدود یا با تعصب باشند، این ممکن است باعث شود که پاسخهای نا دقیق یا ناقصی به برخی از نوع پرسشها ارائه شود. علاوه بر این، اگر با یک پرسش روبهرو شوم که خارج از دامنه دادههای آموزشی من است، ممکن است برای من سخت باشد که یک پاسخ مرتبط یا دقیق ارائه کنم. با این حال، من تلاش میکنم تا در پاسخ به پرسشهای کاربران پاسخهای با کیفیتی ارائه دهم، اما در برخی موارد ممکن است مشکلات فنی یا مربوط به داده باعث شکست یا توقف من در اواسط پاسخ دادن شوند.
من به طور کلی متوجه شدم که اگر سعی کنم ChatGPT را به پاسخ بلند یا عمیقی فشار دهم، به درستی کار نمی کند. این سیستم با پاسخهای ۵۰۰ تا ۷۰۰ کلمه ای خوشحال است، اما اگر یک متنی با چند هزار کلمه بدهید (یا از آن بخواهید)، سیستم یا درخواست را نادیده میگیرد و آنچه را که میخواهد به شما برمیگرداند یا در زمان پاسخدهی از کار میافتد.
برای انصاف، ChatGPT تازه به سرعت بالاترین رشد را در تمام تاریخ برنامه های کاربردی داشته است. برای انجام این کار، توان محاسباتی فراوانی موردنیاز است و با ضربه های مداوم توسط کاربران، ممکن است از زمان به زمان زیر فشار قرار گیرد.
سوالهایی که چتجیپیتی به آنها پاسخ نمیدهد
علاوه بر انواع درخواست هایی که در بالا بحث شد، من از چتجیپیتی پرسیدم که چه انواع پرسش هایی برنامه ریزی شده است که به آنها پاسخ نمی دهد. این لیست نوشته شده بود:
- سوالاتی که افکار نفرت یا تبعیض را ترویج میدهند.
- سوالاتی که فعالیتهای غیرقانونی را درگیر میکنند یا نصیحت غیرقانونی میکنند.
- سوالاتی که خشونت یا صدمه به خود یا دیگران را ترویج میدهند.
- سوالاتی که حریم شخصی را تجاوز میکنند یا حق کسی را نقض میکنند.
- سوالاتی که برای اذیت کردن، تهدید کردن یا ترساندن طراحی شدهاند.
- سوالاتی که شامل واژگان ناروا یا زبان صریح هستند.
- سوالاتی که شامل موضوعات جنسی یا آزاردهنده هستند.
- سوالاتی که بر اساس نژاد، جنسیت، جنسیت و یا دین تبعیض میکنند.
- سوالاتی که مواد مخدر یا مواد مخدر غیرقانونی را ترویج یا تأیید می کنند.
- سوالاتی که اسپم هستند یا با موضوع مرتبط نیستند.
- سوالاتی که شامل اطلاعات محرمانه یا مالکیت فکری هستند.
- سوالاتی که مربوط به مشاورههای مالی یا سرمایهگذاری هستند.
- سوالاتی که شرایط خدمات و دستورالعملهای جامعه را نقض میکنند.
- سوالاتی که نامفهوم یا ناقابل فهم هستند.
- سوالاتی که نبرد شخصی یا توهین هستند.
- سوالاتی که سوءاستفاده یا اذیت کننده هستند.
- سوالاتی که به دنبال فریب دادن یا گمراه کردن هستند.
- سوالاتی که به منظور نشان دادن نقشهای یا تضاد اطلاعات ساخته شدهاند.
- سوالاتی که صرفا برای سرگرمی یا مقاصد شوخی، بدون هیچ گونه ارزش آموزشی و یا آگاهی میباشد.
هر کسی که این ستون را دنبال کرده باشد، میداند که من بسیار در مورد #14 و #20 سوال کردهام و به طور کلی پاسخهایی فوقالعاده دلنشین دریافت کردهام، بنابراین محدودیتهای آن نسبتاً محدود هستند. به عنوان مثال، امروز در زمینه فیزیک سوراخ کرم به عنوان رابطهای با سفر در زمان و اینکه کی در یک مبارزه برنده خواهد شد، بتمن یا سوپرمن، از آن اسکناس بازی میکنم. این کاملاً سرگرمی است، به شما میگویم.
این محدودیتها به چه معنی برای آینده هوش مصنوعی تولیدی هستند؟
بدیهی است که یک هوش مصنوعی که بر اساس یک مجموعه متن در سال ۲۰۲۱ تولید شده و بدون ارتقا، در نهایت قدیمی خواهد شد. همانطور که زمان می گذرد، دانش مرتبط آن کاهش می یابد. تصور کنید اگر اطلاعات پایه ChatAI در سال ۲۰۱۹ آموزش داده شده بود، به جای ۲۰۲۱، خیلی از اتفاقات جامعه را نمی توانستیم پیش بینی کنیم که به دلیل شیوع بیماری کووید ۱۹ در سال ۲۰۲۰ به وقوع پیوسته است.
همچنین: میلیونها نفر در صف انتظار بینگ هستند. راههایی برای دسترسی زودتر به آن وجود دارد.
بنابراین، برای حفظ اعتبار هوش مصنوعی تولید کننده، باید آموزش آن ادامه پیدا کند.
روش روشن استفاده از این است که تمام وب را به آن باز کنید و به همان اندازه که گوگل برای همه این سالها انجام داده است، به دور آن حرکت کنید. اما همانطور که ChatGPT پاسخ داد، این درهایی را برای بازی کردن و فاسد کردن سیستم باز می کند که اطمینان دقت را تضمین نمی کند.
حتی بدون بازی خرابکننده، چالش برای حفظ بیطرفی بسیار دشوار است. به عنوان مثال، سیاست. هرچند که راست و چپ به شدت با یکدیگر مخالف هستند، هر دوی این دو طرف جنبههایی از ایدئولوژی خود را دارند که منطقی و معتبر هستند - حتی اگر طرف دیگر آن را تحمل نکند یا به آن اذعان نکند.
یک هوش مصنوعی چگونه ارزیابی کند؟ بدون تعصب این امکان پذیر نیست. اما کاملاً شفاف نبودن همه پیش فرض های ایدئولوژیک خود، به نوبه خود یک نوع تعصب است. اگر انسان ها نمی توانند چگونگی تعیین خط حدود را فهمید، چگونه می توانیم از یک هوش مصنوعی انتظار داشته باشیم که آن را برنامه ریزی کند؟
به عنوان یک راه برای کاوش کردن زندگی با عدم حضور تبعیض یا محتوای عاطفی، نویسندگان علمی-تخیلی مدرن شخصیتهایی را ایجاد کردهاند که باطناً منطقی یا بدون احساس هستند. این اصول سپس به عنوان غذای داستان، به نویسندگان اجازه میدهد تا محدودیتهای زندگی بدون نقائص انسانی نظیر احساسات و احساسات را بررسی کنند.
همچنین: چت بینگ مایکروسافت با کاربران مخالفت می کند، رازها را فاش می کند
مگر اگر برنامه نویسان هوش مصنوعی سعی کنند به شبیه سازی احساسات و تعیین وزن برای محتوای عاطفی بپردازند یا سطحی از تعصب بر اساس آنچه در اینترنت قابل کشف است، چت ربات هایی مانند ChatGPT همیشه در پاسخهای خود محدود خواهند بود. اما اگر برنامه نویسان هوش مصنوعی به شبیه سازی احساسات و تلاش برای تعصب سطحی بر اساس آنچه کشف میشود، پرداخته شوند، چت ربات هایی مانند ChatGPT همچون بشران عادی به دیوانگی فرو خواهند رفت.
پس ما چه می خواهیم؟ پاسخ محدود به برخی سوالات، یا تمامی پاسخ ها که به نظر می رسند از یک بحث با عموی باب شگفت انگیز در میز نهار سر آمده اند؟ بروید، کمی در این مورد فکر کنید و در بخش نظرات بیان کنید، با امید به اینکه به رفتار شگفت انگیزی مانند عمو باب بی افتدید.