استکهلم: مدیران برتر هوش مصنوعی از جمله مدیر عامل OpenAI سام آلتمن روز سهشنبه به متخصصان و استادان پیوستند تا «خطر انقراض ناشی از هوش مصنوعی» را مطرح کنند، که آنها از سیاستگذاران خواستند آن را با خطرات ناشی از بیماریهای همهگیر و جنگ هستهای برابری کنند. بیش از 350 امضاکننده در نامهای که توسط مرکز غیرانتفاعی ایمنی هوش مصنوعی (CAIS) منتشر شد، نوشتند: کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد.
آنها علاوه بر آلتمن، شامل مدیران عامل شرکتهای هوش مصنوعی DeepMind و Anthropic و مدیرانی از مایکروسافت و گوگل بودند. همچنین از جمله آنها بودند جفری هینتون و یوشوا بنجیو – دو نفر از سه به اصطلاح “پدرخوانده هوش مصنوعی” که جایزه تورینگ 2018 را برای کار خود در زمینه یادگیری عمیق دریافت کردند – و اساتیدی از موسسات مختلف از هاروارد گرفته تا دانشگاه تسینگهوای چین.
بیانیه ای از CAIS متا را متمایز کرد، جایی که سومین پدرخوانده هوش مصنوعی، یان لکون، برای امضا نکردن نامه کار می کند. این نامه همزمان با نشست شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در سوئد بود که در آن انتظار میرود سیاستمداران درباره تنظیم مقررات هوش مصنوعی صحبت کنند. ایلان ماسک و گروهی از کارشناسان و مدیران صنعت هوش مصنوعی اولین کسانی بودند که در ماه آوریل به خطرات احتمالی برای جامعه اشاره کردند.
این بیانیه در زمانی بیان میشود که نگرانیهای فزاینده در مورد آسیبهای احتمالی هوش مصنوعی وجود دارد. پیشرفتهای اخیر در مدلهای به اصطلاح زبان بزرگ – نوع سیستم هوش مصنوعی مورد استفاده توسط ChatGPT و سایر رباتهای چت – این نگرانی را ایجاد کرده است که هوش مصنوعی به زودی میتواند در مقیاس وسیع برای انتشار اطلاعات نادرست و تبلیغات استفاده شود، یا اینکه میتواند میلیونها شغل یقه سفید را حذف کند. . در نهایت، برخی معتقدند، هوش مصنوعی میتواند به اندازهای قدرتمند شود که اگر کاری برای کاهش سرعت آن انجام نشود، ظرف چند سال میتواند اختلالاتی در مقیاس اجتماعی ایجاد کند، اگرچه محققان گاهی اوقات از توضیح چگونگی وقوع آن کوتاهی میکنند.
این ترسها توسط بسیاری از رهبران صنعت به اشتراک گذاشته میشود و آنها را در موقعیت غیرمعمولی قرار میدهد که میگویند فناوریای که در حال ساخت آنها هستند – و در بسیاری موارد، به شدت در حال رقابت برای ساخت سریعتر از رقبای خود هستند – خطرات بزرگی را به همراه دارد و باید به شدت نظارت شود.
پیشرفتهای اخیر در هوش مصنوعی این نگرانی را ایجاد کرده است که این فناوری همچنین میتواند منجر به نقض حریم خصوصی، کمپینهای اطلاعات نادرست و ایجاد مشکلاتی در مورد تفکر «ماشینهای هوشمند» شود. هینتون، یکی از پیشگامان هوش مصنوعی، پیشتر گفته بود که هوش مصنوعی می تواند تهدیدی «فوری»تر از تغییرات آب و هوایی برای بشریت باشد. این ماه، آلتمن با جو بایدن، رئیس جمهور آمریکا و کامالا هریس، معاون رئیس جمهور آمریکا، در مورد مقررات هوش مصنوعی صحبت کرد. در شهادت سنا پس از این نشست، آلتمن هشدار داد که خطرات سیستمهای هوش مصنوعی پیشرفته به اندازهای جدی است که مداخله دولت را تضمین کند و خواستار تنظیم مقررات هوش مصنوعی برای آسیبهای احتمالی آن شد.
آنها علاوه بر آلتمن، شامل مدیران عامل شرکتهای هوش مصنوعی DeepMind و Anthropic و مدیرانی از مایکروسافت و گوگل بودند. همچنین از جمله آنها بودند جفری هینتون و یوشوا بنجیو – دو نفر از سه به اصطلاح “پدرخوانده هوش مصنوعی” که جایزه تورینگ 2018 را برای کار خود در زمینه یادگیری عمیق دریافت کردند – و اساتیدی از موسسات مختلف از هاروارد گرفته تا دانشگاه تسینگهوای چین.
بیانیه ای از CAIS متا را متمایز کرد، جایی که سومین پدرخوانده هوش مصنوعی، یان لکون، برای امضا نکردن نامه کار می کند. این نامه همزمان با نشست شورای تجارت و فناوری ایالات متحده و اتحادیه اروپا در سوئد بود که در آن انتظار میرود سیاستمداران درباره تنظیم مقررات هوش مصنوعی صحبت کنند. ایلان ماسک و گروهی از کارشناسان و مدیران صنعت هوش مصنوعی اولین کسانی بودند که در ماه آوریل به خطرات احتمالی برای جامعه اشاره کردند.
این بیانیه در زمانی بیان میشود که نگرانیهای فزاینده در مورد آسیبهای احتمالی هوش مصنوعی وجود دارد. پیشرفتهای اخیر در مدلهای به اصطلاح زبان بزرگ – نوع سیستم هوش مصنوعی مورد استفاده توسط ChatGPT و سایر رباتهای چت – این نگرانی را ایجاد کرده است که هوش مصنوعی به زودی میتواند در مقیاس وسیع برای انتشار اطلاعات نادرست و تبلیغات استفاده شود، یا اینکه میتواند میلیونها شغل یقه سفید را حذف کند. . در نهایت، برخی معتقدند، هوش مصنوعی میتواند به اندازهای قدرتمند شود که اگر کاری برای کاهش سرعت آن انجام نشود، ظرف چند سال میتواند اختلالاتی در مقیاس اجتماعی ایجاد کند، اگرچه محققان گاهی اوقات از توضیح چگونگی وقوع آن کوتاهی میکنند.
این ترسها توسط بسیاری از رهبران صنعت به اشتراک گذاشته میشود و آنها را در موقعیت غیرمعمولی قرار میدهد که میگویند فناوریای که در حال ساخت آنها هستند – و در بسیاری موارد، به شدت در حال رقابت برای ساخت سریعتر از رقبای خود هستند – خطرات بزرگی را به همراه دارد و باید به شدت نظارت شود.
پیشرفتهای اخیر در هوش مصنوعی این نگرانی را ایجاد کرده است که این فناوری همچنین میتواند منجر به نقض حریم خصوصی، کمپینهای اطلاعات نادرست و ایجاد مشکلاتی در مورد تفکر «ماشینهای هوشمند» شود. هینتون، یکی از پیشگامان هوش مصنوعی، پیشتر گفته بود که هوش مصنوعی می تواند تهدیدی «فوری»تر از تغییرات آب و هوایی برای بشریت باشد. این ماه، آلتمن با جو بایدن، رئیس جمهور آمریکا و کامالا هریس، معاون رئیس جمهور آمریکا، در مورد مقررات هوش مصنوعی صحبت کرد. در شهادت سنا پس از این نشست، آلتمن هشدار داد که خطرات سیستمهای هوش مصنوعی پیشرفته به اندازهای جدی است که مداخله دولت را تضمین کند و خواستار تنظیم مقررات هوش مصنوعی برای آسیبهای احتمالی آن شد.