پدر هوش مصنوعی از پیشرفت خطرناک AI میگوید.
در این مقاله میخوانید
جفری هینتون (Geoffrey Hinton) این سوال را مطرح کرد که آیا رویکردهای مثبت هوش مصنوعی میتواند بر رویکردهای منفی آن غلبه کند یا خیر. علاوهبراین، هشدار داد که کاربرد اخلاقی هوش مصنوعی ممکن است هزینه بالایی داشته باشد.
در کنفرانس Collision که در شهر تورنتو برگزار شده بود، پروفسور دانشگاه تورنتو، جفری هینتون، معروف به «پدرخوانده هوش مصنوعی» نگرانیهای خود را در مورد پیشرفت سریع هوش مصنوعی (AI) و پیامدهای آن مطرح کرد. هینتون به تازگی از کمپانی گوگل بیرون آمده است تا آزادانه از حوزه هوش مصنوعی انتقاد کند. در همین راستا، جفری هینتون از افزایش استفاده از هوش مصنوعی مولد مانند ChatGPT و Bing Chat ابراز نگرانی کرد و آنها را بهعنوان نشانههایی از پیشرفت کنترل نشده و خطرناک تلقی کرد.
در حالی که هوش مصنوعی به عنوان راه حلی برای کارهای مختلف مانند اجاره و حمل و نقل تبلیغ میشود، هینتون زنگ خطر را به صدا درآورد. او این سوال را مطرح کرد که آیا رویکردهای مثبت هوش مصنوعی میتواند بر رویکردهای منفی آن غلبه کند یا خیر. همچنین هشدار داد که پذیرش هوش مصنوعی بهروش اخلاقی ممکن است هزینه بالایی داشته باشد.
هینتون تاکید کرد که اخلاقی بودن کاربرد هوش مصنوعی به افرادی که آن را ایجاد میکنند بستگی دارد و هشدار داد که موفقیتهای علمی همچنان میتواند پیروز باشد. بهعنوان مثال، هینتون معتقد است توقف تولید رباتهای جنگی که مجتمع نظامی-صنعتی تولید میکند بسیار مشکل است و در صورت استفاده از هوش مصنوعی، میتوان شرایطی را فراهم کرد که ارتشها کمترین تلفات را در تاسیسات خود داشته باشند.
علاوهبراین، هینتون در مورد پیامدهای مدلهای بزرگ زبانی مانند GPT-4 که توسط شرکت OpenAI ارائه شده ابراز نگرانی کرد و گفت که ممکن است طبقه ثروتمند از این پیشرفت برای ثروتمندتر کردن بیشتر خود سوء استفاده کنند و اختلاف طبقاتی و نابرابریهای اجتماعی را شدت ببخشند.
خطرات ناشی از گسترش هوش مصنوعی
هینتون با تکرار نظرات قبلی خود، بر خطرات ناشی از گسترش هوش مصنوعی تأکید کرد و هشدار داد که اگر هوش مصنوعی از هوش انسانی پیشی بگیرد، هیچ تضمینی وجود نخواهد داشت که انسان بتواند آن را کنترل کند. هینتون تاکید کرد که این تهدیدات صرفا علمی تخیلی نیستند و جامعه باید این تهدیدها را جدی بگیرد. او گفت که ممکن است خطرات هوش مصنوعی تنها پس از مشاهده تاثیرات فاجعهبار رباتهای قاتل قابل تشخیص باشد.
هینتون با بیان مشکلات فعلی، توجه همگان را به مسائلی مثل تبعیض، بیعدالتی، اطلاعات غلط و دغدغههای سلامت روانی مرتبط با هوش مصنوعی جلب کرد. او گفت هنگامی که دادههای آموزشی هوش مصنوعی تبعیضآمیز هستند، ممکن است نتایج نادرستی بهدست بیاید. همچنین، الگوریتمها ممکن است حبابهایی از اطلاعات ایجاد کنند که اطلاعات غلط را تقویت میکنند. هینتون شک داشت که بتوانیم همه اطلاعات اشتباه را پیدا کنیم، اما معتقد بود که بسیار مهم است که اطلاعات غلط را به عنوان «اطلاعات غلط» برچسب بزنیم.
علیرغم این نگرانیها، جفری هینتون، گفت که هنوز از هوش مصنوعی ناامید نشده و به اثرات مثبت آن نیز اشاره کرد. با این حال، او هشدار داد که استفاده مفید از هوش مصنوعی ممکن است قیمت بالایی داشته باشد. هینتون پیشنهاد کرد که برای درک مشکلات احتمالی هوش مصنوعی و جلوگیری از به دست گرفتن کنترل آن لازم است پژوهشهایی صورت بگیرد. او معتقد است همچنان میتوان ایرادات این فناوری را برطرف کرد و برای این کار، لازم است سیاستهای شرکتها با کاربرد اخلاقی هوش مصنوعی همجهت شود.
وقتی از هینتون در مورد تاثیر پیشرفت هوش مصنوعی بر از دست دادن شغلها سؤال شد، او پیشنهاد کرد که برای پرداختن به نابرابریها، لازم به پذیرش رویکرد سوسیالیستی است. هینتون افراد را تشویق کرد تا مشاغلی را دنبال کنند که میتواند با پیشرفتها سازگار شوند مثل لوله کشی. او اشاره کرد که جامعه برای همسو شدن با هوش مصنوعی باید تغییرات گستردهای را ایجاد کند.