رهبران صنعت هشدار می دهند که هوش مصنوعی خطر انقراض را به همراه دارد

استکهلم: مدیران برتر هوش مصنوعی از جمله مدیر عامل OpenAI سام آلتمن روز سه‌شنبه به متخصصان و استادان پیوستند تا «خطر انقراض ناشی از هوش مصنوعی» را مطرح کنند، که آنها از سیاست‌گذاران خواستند آن را با خطرات ناشی از بیماری‌های همه‌گیر و جنگ هسته‌ای برابری کنند. بیش از 350 امضاکننده در نامه‌ای که توسط مرکز غیرانتفاعی ایمنی هوش مصنوعی (CAIS) منتشر شد، نوشتند: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد.
آنها علاوه بر آلتمن، شامل مدیران عامل شرکت‌های هوش مصنوعی DeepMind و Anthropic و مدیرانی از مایکروسافت و گوگل بودند. همچنین از جمله آنها بودند جفری هینتون و یوشوا بنجیو – دو نفر از سه به اصطلاح “پدرخوانده هوش مصنوعی” که جایزه تورینگ 2018 را برای کار خود در زمینه یادگیری عمیق دریافت کردند – و اساتیدی از موسسات مختلف از هاروارد گرفته تا دانشگاه تسینگ‌هوای چین.
بیانیه ای از CAIS متا را متمایز کرد، جایی که سومین پدرخوانده هوش مصنوعی، یان لکون، برای امضا نکردن نامه کار می کند. این نامه همزمان با نشست شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در سوئد بود که در آن انتظار می‌رود سیاستمداران درباره تنظیم مقررات هوش مصنوعی صحبت کنند. ایلان ماسک و گروهی از کارشناسان و مدیران صنعت هوش مصنوعی اولین کسانی بودند که در ماه آوریل به خطرات احتمالی برای جامعه اشاره کردند.
این بیانیه در زمانی بیان می‌شود که نگرانی‌های فزاینده در مورد آسیب‌های احتمالی هوش مصنوعی وجود دارد. پیشرفت‌های اخیر در مدل‌های به اصطلاح زبان بزرگ – نوع سیستم هوش مصنوعی مورد استفاده توسط ChatGPT و سایر ربات‌های چت – این نگرانی را ایجاد کرده است که هوش مصنوعی به زودی می‌تواند در مقیاس وسیع برای انتشار اطلاعات نادرست و تبلیغات استفاده شود، یا اینکه می‌تواند میلیون‌ها شغل یقه سفید را حذف کند. . در نهایت، برخی معتقدند، هوش مصنوعی می‌تواند به اندازه‌ای قدرتمند شود که اگر کاری برای کاهش سرعت آن انجام نشود، ظرف چند سال می‌تواند اختلالاتی در مقیاس اجتماعی ایجاد کند، اگرچه محققان گاهی اوقات از توضیح چگونگی وقوع آن کوتاهی می‌کنند.
این ترس‌ها توسط بسیاری از رهبران صنعت به اشتراک گذاشته می‌شود و آنها را در موقعیت غیرمعمولی قرار می‌دهد که می‌گویند فناوری‌ای که در حال ساخت آن‌ها هستند – و در بسیاری موارد، به شدت در حال رقابت برای ساخت سریع‌تر از رقبای خود هستند – خطرات بزرگی را به همراه دارد و باید به شدت نظارت شود.
پیشرفت‌های اخیر در هوش مصنوعی این نگرانی را ایجاد کرده است که این فناوری همچنین می‌تواند منجر به نقض حریم خصوصی، کمپین‌های اطلاعات نادرست و ایجاد مشکلاتی در مورد تفکر «ماشین‌های هوشمند» شود. هینتون، یکی از پیشگامان هوش مصنوعی، پیشتر گفته بود که هوش مصنوعی می تواند تهدیدی «فوری»تر از تغییرات آب و هوایی برای بشریت باشد. این ماه، آلتمن با جو بایدن، رئیس جمهور آمریکا و کامالا هریس، معاون رئیس جمهور آمریکا، در مورد مقررات هوش مصنوعی صحبت کرد. در شهادت سنا پس از این نشست، آلتمن هشدار داد که خطرات سیستم‌های هوش مصنوعی پیشرفته به اندازه‌ای جدی است که مداخله دولت را تضمین کند و خواستار تنظیم مقررات هوش مصنوعی برای آسیب‌های احتمالی آن شد.