پدر هوش مصنوعی از پیشرفت خطرناک AI می‌گوید.

پدر هوش مصنوعی از پیشرفت خطرناک AI می‌گوید.
Avatar
نویسنده: دارا رستگار
دوشنبه 12 تیر 1402
مطالعه: ۴ دقیقه ۰ نظر ۶۰۴ بازدید

در این مقاله میخوانید

جفری هینتون (Geoffrey Hinton) این سوال را مطرح کرد که آیا رویکردهای مثبت هوش مصنوعی می‌تواند بر رویکردهای منفی آن غلبه کند یا خیر. علاوه‌بر‌این، هشدار داد که کاربرد اخلاقی هوش مصنوعی ممکن است هزینه بالایی داشته باشد.

در کنفرانس Collision که در شهر تورنتو برگزار شده بود، پروفسور دانشگاه تورنتو، جفری هینتون، معروف به «پدرخوانده هوش مصنوعی» نگرانی‌های خود را در مورد پیشرفت سریع هوش مصنوعی (AI) و پیامدهای آن مطرح کرد. هینتون به تازگی از کمپانی گوگل بیرون آمده است تا آزادانه از حوزه هوش مصنوعی انتقاد کند. در همین راستا، جفری هینتون از افزایش استفاده از هوش مصنوعی مولد مانند ChatGPT و Bing Chat ابراز نگرانی کرد و آن‌ها را به‌عنوان نشانه‌هایی از پیشرفت کنترل نشده و خطرناک تلقی کرد.

در حالی که هوش مصنوعی به عنوان راه حلی برای کارهای مختلف مانند اجاره و حمل و نقل تبلیغ می‌شود، هینتون زنگ خطر را به صدا درآورد. او این سوال را مطرح کرد که آیا رویکردهای مثبت هوش مصنوعی می‌تواند بر رویکردهای منفی آن غلبه کند یا خیر. همچنین هشدار داد که پذیرش هوش مصنوعی به‌روش اخلاقی ممکن است هزینه بالایی داشته باشد.

هینتون تاکید کرد که اخلاقی بودن کاربرد هوش مصنوعی به افرادی که آن را ایجاد می‌کنند بستگی دارد و هشدار داد که موفقیت‌های علمی همچنان می‌تواند پیروز باشد. به‌عنوان مثال، هینتون معتقد است توقف تولید ربات‌های جنگی که مجتمع نظامی-صنعتی تولید می‌کند بسیار مشکل است و در صورت استفاده از هوش مصنوعی، می‌توان شرایطی را فراهم کرد که ارتش‌ها کمترین تلفات را در تاسیسات خود داشته باشند.

علاوه‌بر‌این، هینتون در مورد پیامدهای مدل‌های بزرگ زبانی مانند GPT-4 که توسط شرکت OpenAI ارائه شده ابراز نگرانی کرد و گفت که ممکن است طبقه ثروتمند از این پیشرفت برای ثروتمندتر کردن بیشتر خود سوء استفاده کنند و اختلاف طبقاتی و نابرابری‌های اجتماعی را شدت ببخشند.

خطرات ناشی از گسترش هوش مصنوعی

هینتون با تکرار نظرات قبلی خود، بر خطرات ناشی از گسترش هوش مصنوعی تأکید کرد و هشدار داد که اگر هوش مصنوعی از هوش انسانی پیشی بگیرد، هیچ تضمینی وجود نخواهد داشت که انسان بتواند آن‌ را کنترل کند. هینتون تاکید کرد که این تهدیدات صرفا علمی تخیلی نیستند و جامعه باید این تهدیدها را جدی بگیرد. او گفت که ممکن است خطرات هوش مصنوعی تنها پس از مشاهده تاثیرات فاجعه‌بار ربات‌های قاتل قابل تشخیص باشد.

هینتون با بیان مشکلات فعلی، توجه همگان را به مسائلی مثل تبعیض، بی‌عدالتی، اطلاعات غلط و دغدغه‌های سلامت روانی مرتبط با هوش مصنوعی جلب کرد. او گفت هنگامی که داده‌های آموزشی هوش مصنوعی تبعیض‌آمیز هستند، ممکن است نتایج نادرستی به‌دست بیاید. همچنین، الگوریتم‌ها ممکن است حباب‌هایی از اطلاعات ایجاد کنند که اطلاعات غلط را تقویت می‌کنند. هینتون شک داشت که بتوانیم همه اطلاعات اشتباه را پیدا کنیم، اما معتقد بود که بسیار مهم است که اطلاعات غلط را به عنوان «اطلاعات غلط» برچسب بزنیم.

علی‌رغم این نگرانی‌ها، جفری هینتون، گفت که هنوز از هوش مصنوعی ناامید نشده و به اثرات مثبت آن نیز اشاره کرد. با این حال، او هشدار داد که استفاده مفید از هوش مصنوعی ممکن است قیمت بالایی داشته باشد. هینتون پیشنهاد کرد که برای درک مشکلات احتمالی هوش مصنوعی و جلوگیری از به دست گرفتن کنترل آن لازم است پژوهش‌هایی صورت بگیرد. او معتقد است همچنان می‌توان ایرادات این فناوری را برطرف کرد و برای این کار، لازم است سیاست‌های شرکت‌ها با کاربرد اخلاقی هوش مصنوعی هم‌جهت شود.

وقتی از هینتون در مورد تاثیر پیشرفت هوش‌ مصنوعی بر از دست دادن شغل‌ها سؤال شد، او پیشنهاد کرد که برای پرداختن به نابرابری‌ها، لازم به پذیرش رویکرد سوسیالیستی است. هینتون افراد را تشویق کرد تا مشاغلی را دنبال کنند که می‌تواند با پیشرفت‌ها سازگار شوند مثل لوله کشی. او اشاره کرد که جامعه برای همسو شدن با هوش مصنوعی باید تغییرات گسترده‌ای را ایجاد کند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *


ارسال دیدگاه در وبلاگ پارس‌پک را مطالعه کرده و آن‌ها را می‌پذیرم.