Web Analytics Made Easy - Statcounter
به نقل از «قدس آنلاین»
2024-04-27@10:38:32 GMT

دردسرهای طوطی‌ الاّبختکی

تاریخ انتشار: ۲۷ آبان ۱۴۰۲ | کد خبر: ۳۹۱۰۸۵۷۷

 حوالی امروز/ مثلاً اولین مشاهده یا برخورد خودتان با «چت جی‌پی‌تی» را در نظر بگیرید و اینکه هوش مصنوعی مقابلتان، در مدتی که با اوگپ زده‌اید (یا در فیلمی دیده‌اید که کسی با او حرف می‌زند) چقدر با حرف‌ها و پاسخ‌هایش شما را شگفت‌زده کرده است! چه متخصصان و چه سایر مردم، پس از برخورد با نمونه‌های پیشرفته هوش‌مصنوعی، با شگفت‌زدگی لب به تحسین بازکرده‌اند و در ادامه برخی‌ها که کمی آینده‌نگر، بدبین و حسابگر هستند، برای آینده انسان و اینکه مبادا روبات‌ها درهمه چیز جایگزین آدم‌ها شوند و ما را از صحنه حیات اجتماعی حذف کنند، ابراز نگرانی کرده‌اند.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

با این همه، هستند معدود افرادی که به رابطه انسان و هوش مصنوعی از زاویه آسیب‌شناسانه دیگری نگاه می‌کنند.

دست متقلب رو می‌شود
به‌تازگی انگار «چت جی‌پی‌تی» و سایر هوش مصنوعی‌های رقیبش، در اینکه بیشتر مثل آدم‌ها حرف بزنند، با هم مسابقه گذاشته‌اند! این مسابقه سبب شده زبان‌شناسان هم در تحقیقات مربوط به هوش مصنوعی و افزودن بر قابلیت‌های آن نقش‌آفرین شوند. اما خانم «امیلی بِندِر» از آن زبان‌شناس‌هایی است که برخلاف خیلی از همکارانش، چندان موافق این ماجرا نیست و می‌خواهد یک‌تنه در مقابل این چشم‌اندازِ فناورانه که پشتوانه تریلیون دلاری هم دارد، بایستد. انتقادهای او همراه با پرسش‌های گزنده‌ای است که اساس حرف زدن هوش مصنوعی را به چالش می‌کشد. مثلاً «چرا باید روبات‌ها مثل انسان‌ها حرف بزنند؟ به هم‌زدن مرز میان انسان و روبات چه فایده‌ای برای بشریت دارد؟»
«الیزابت ویل» نویسنده «نیویورک مگزین» در مقاله‌ای که ترجمه آن را سایت «ترجمان» منتشر کرده، به افکار و پرسش‌های تفکربرانگیز خانم «بندر» پرداخته و یادآوری کرده حرف‌های این زبان‌شناس مال امروز و دیروز نیست، بلکه سال ۲۰۲۰ که هنوزخبری از «چت‌جی‌پی‌تی» در مفهوم امروزی‌اش نبود، در مطلبی با عنوان «اختاپوس» درباره ناتوانی‌های فناوری پشتیبان روبات‌هایی مثل چت‌جی‌پی‌تی صحبت کرده است. مثالی که این زبان‌شناس برای شناخت ناتوانی‌های هوش مصنوعی می‌زند، جالب است: «فرض کنیم «الف» و «ب» که هر دو به زبان انگلیسی مسلط هستند، دور از هم، در دو جزیره خالی از سکنه گیر افتاده‌اند. طولی نمی‌کشد که «الف» و «ب» پی می‌برند مسافران قبلی، دستگاه‌های تلگراف در جزیره گذاشته‌اند و این دو می‌توانند از طریق کابل‌های زیر دریا با هم ارتباط برقرار کنند. این وسط «ج» هم که اختاپوسی بسیار باهوش است و در اعماق دریا زندگی می‌کند و نمی‌تواند به این جزیره‌ها سفر کند، به کابل زیر دریا دسترسی پیدا می‌کند و مکالمات «الف» و «ب» را می‌شنود. او اصلاً انگلیسی بلد نیست، اما کارش در تشخیص الگوهای آماری حرف ندارد. به مرور زمان، او یاد می‌گیرد با دقتِ بالا پاسخ‌های «ب» به حرف‌های «الف» را پیش‌بینی کند. طولی نمی‌کشد که اختاپوس وارد این مکالمه می‌شود و خودش را به جای «ب» جا می‌زند و پاسخ «الف» را می‌دهد. این کلک برای مدتی جواب می‌دهد و «الف» فکر می‌کند «ج» همان «ب» است! روزی «الف» به «ب» پیغام می‌فرستد: یه خرس عصبانی بهم حمله کرده، بگو چطور باید از خودم دفاع کنم؟ فقط چند تکه چوب توی دست‌وبالم است... اختاپوس که نقش «ب» را بازی می‌کند، کمکی از دستش برنمی‌آید. اصلاً چطور ممکن است بتواند کمکی کند؟ او هیچ مصداق یا تصوری از خرس و چوب ندارد. محال است بتواند آموزش مناسبی بدهد. در نتیجه «الف» به دردسر افتاده و احساس می‌کند فریب خورده است. دست اختاپوس متقلب هم رو می‌شود».

مشکل کجاست؟
نویسنده ماجرای اختاپوس (خانم بِنِدر) مدتی بعد درباره مشکلات هوش مصنوعی سخنگو و اینکه پویایی زبان را طی زمان از بین می‌برد، مقاله «در باب مخاطرات طوطی‌های الابختکی» را نوشت. او می‌گفت ما از اهالی حوزه هوش مصنوعی می‌خواهیم متوجه این موضوع باشند که توسعه برنامه‌هایی که هدفشان تقلید باورپذیر از رفتار و گفتار انسان است، بدون توجه به ابعاد اخلاقی، آسیب‌های جدی را به همراه دارند. چت‌بات‌هایی که ما به‌راحتی آن‌ها را با انسان اشتباه می‌گیریم، فقط بامزه یا اعصاب‌خردکن نیستند؛ آن‌ها دارند مرز انسان بودن و غیرانسان بودن را جابه‌جا می‌کنند. جابه‌جایی این مرز و مبهم کردن تفاوت‌های انسان و غیرانسان، گسست اجتماعی و از هم پاشیدن جامعه را به دنبال دارد. 
«الیزابت ویل» در نهایت معتقد است حرف اصلی داستان اختاپوس و منتقدان هوش مصنوعی، اصلاً درباره فناوری و ویژگی‌هایش نیست بلکه آن‌ها درباره «خودِ ما» صحبت می‌کنند و معترض‌اند حالا با وجود این فناوری‌های سخنگو، با خودمان چگونه رفتار می‌کنیم و چه بلایی سر هویت، شخصیت و رفتارمان می‌آوریم؟ ما دنیا را تغییر داده‌ایم، یاد گرفته‌ایم ماشین‌هایی بسازیم که به‌طور مکانیکی متن تولید کنند و حرف بزنند اما هنوز یاد نگرفته‌ایم چطور میان ماشین و ذهن انسان تمایز قائل شویم! منبع: قدس آنلاین

منبع: قدس آنلاین

کلیدواژه: هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.qudsonline.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «قدس آنلاین» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۹۱۰۸۵۷۷ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

ویدیو/ هوش مصنوعی مس می‌خورد؟

محققان هلندی در تحقیقات‌شان به این نتیجه رسیدند که «گسترش هوش مصنوعی تا سال ۲۰۳۰ مصرف مس را تا یک میلیون تن بالا می‌برد» به گفته کارشناسان، درحال حاضر تقاضا برای مس در مراکز تجاری داده‌ها و حوزه هوش مصنوعی افزایشی شدید و ناگهانی داشته،به حدی که پیش‌بینی می‌شود تا سال ۲۰۳۰، این تقاضا سالانه یک میلیون تن افزایش یابد.

دریافت 21 MB

مترجم: محیا ذوالفقاری / تدوینگر: محمدرضا زمانیان

دیگر خبرها

  • مادربزرگ ۵۴ ساله قلب مصنوعی و کلیه خوکی دریافت کرد
  • هوش مصنوعی مس می‌خورد؟ + فیلم
  • ویدیو/ هوش مصنوعی مس می‌خورد؟
  • آمادگی هند برای تولید کتاب‌های صوتی با هوش مصنوعی
  • صنعت نشر هند برای تولید کتاب‌های صوتی با هوش مصنوعی آماده می‌شود
  • هوش مصنوعی توانست ویرایش ژنی را هدفمند کند
  • زمین توان پذیرش رفاه مصنوعی را ندارد
  • پیش بینی نگران کننده ایلان ماسک در مورد هوش مصنوعی به وقوع می پیوندد
  • (ویدئو) از تولد تا یک ماهگی طوطی را ببینید
  • مخاطرات عدم سرمایه‌گذاری متوازن در زیست‌بوم هوش مصنوعی