کد خبر 1403255
تاریخ انتشار: ۸ مرداد ۱۴۰۱ - ۰۲:۳۰
اریک اشمیت: هوش مصنوعی به اندازه سلاح‌های هسته‌ای خطرناک است

اریک اشمیت، مدیر اجرایی سابق گوگل، هوش مصنوعی را به اندازه سلاح‌های هسته‌ای خطرناک خوانده است.

به گزارش مشرق، اریک اشمیت در سخنرانی خود در مجمع امنیتی آسپن در اوایل هفته جاری گفت که او «در مورد تاثیر کاری که انجام می‌دادند ساده لوح بوده است.»، اما این اطلاعات «بسیار قدرتمندند» و «دولت و سایر نهادها باید فشار بیشتری را بر فناوری اعمال کنند تا با ارزش‌های اخلاقی‌مان هماهنگ شوند.»

«زور و قدرتی که فناوری در اختیار دارد بسیار بسیار واقعی است. به این موضوع فکر کنید که چگونه می‌توانیم در مورد توافقنامه هوش مصنوعی مذاکره کنیم؟ ابتدا باید دست‌اندرکارانی در فناوری داشته باشید که آگاه باشند چه اتفاق‌هایی خواهد افتاد و از سوی دیگر، خود شما باید درباره خطرات آن آگاهی داشته باشید. فرض کنید می‌خواهیم با چین درباره نوعی معاهده درباره شگفتی‌های هوش مصنوعی گفت‌وگو کنیم. این بسیار معقول و منطقی است. اما چگونه آن را انجام دهیم؟ چه کسی در دولت آمریکا با ما کار خواهد کرد؟ و حتی در طرف چینی اوضاع بدتر است؟ چه کسی را خطاب قرار دهیم؟»

ما به مذاکراتی  نیاز داریم که هنوز آمادگی‌اش را نداریم.

«ما بالاخره در دهه‌های ۵۰ و ۶۰ میلادی موفق شدیم دنیایی را به وجود آوریم که در آن قانون «غافلگیر نشدن» درباره آزمایش‌های هسته‌ای وجود داشت و در نهایت این سلاح‌ها ممنوع شدند. این مورد نمونه‌ای است از تعادل میان اعتماد، یا اعتماد نداشتن، این یک قانون «غافلگیر نشدن» است.»

«من بسیار نگرانم که نگاه ایالات متحده به چین به‌عنوان یک حکومت فاسد یا کمونیست یا هر چیز دیگری، و دیدگاه چینی‌ها به آمریکا به‌عنوان یک حکومت شکست‌خورده... به مردم اجازه دهد که بگویند «اوه خدای من، آن‌ها حتما نقشه‌ای دارند» و سپس شروع کنند به یک جور معما ساختن و مسئله را پیچیده بغرنج‌تر کنند... د. چون در حال مسلح شدن یا آماده کردن خودتان‌اید، پس در این صورت، طرف مقابل را به اقدام متقابل تحریک می‌کنید.»

قابلیت‌های هوش مصنوعی طی سال‌ها به دفعات بیان شده است و حتی بیش از حد در این‌باره صحبت شده است. ایلان ماسک، مدیر اجرایی تسلا، اغلب گفته است که هوش مصنوعی به احتمال بالا تهدیدی برای انسان است. اخیرا گوگل هم یک مهندس نرم‌افزار را اخراج کرده است که ادعا کرده‌ بود هوش مصنوعی به خودآگاهی رسیده است و دارای ادراک است.

با این حال، کارشناسان اغلب به مردم یادآوری کرده‌اند که مسئله هوش مصنوعی این است که برای چه چیزی آموزش داده شده و انسان‌ها چگونه از آن استفاده می‌کنند. اگر الگوریتم‌هایی که این سیستم‌ها را آموزش می‌دهند مبتنی بر داده‌های ناقص، نژادپرستانه یا تبعیض جنسیتی باشند، نتایج هم در نهایت همین موارد را منعکس خواهد کرد.

منبع: ایتنا

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha

نظرات

  • انتشار یافته: 4
  • در انتظار بررسی: 0
  • غیر قابل انتشار: 1
  • IR ۰۸:۵۸ - ۱۴۰۱/۰۵/۰۸
    2 2
    هیچ ربات و هوش مصنوعی به خودآگاهی و ادراک نخواهند رسید چون روح فرمانی است از جانب خداوند
  • ن NO ۰۹:۲۴ - ۱۴۰۱/۰۵/۰۸
    8 1
    خطرناک نیست؟؟؟ برای اولین بار در تاریخ کره زمین بجز مغز انسان که پر از خطا های کارکردی است یک پدیده به وجود میاید که هوشمند است و میتواند اندیشه داشته باشد ان هم بدون خطا و میلیاردها برابر هوش یک انسان توانایی (ان هم در ورژن یک)
  • مهتاب IR ۱۴:۳۹ - ۱۴۰۱/۰۵/۰۸
    2 1
    قطعا هوش مصنوعی هم در خدمت کشورهایی که به دنبال سلطه بر دنیا هستن به کار گرفته خواهد شد و متاسفانه دنیا رو به جهانی تحت مدیریت یک کشور تبدیل خواهد کرد و اون کشور به هیچ وجه شایستگی مدیریت دنیا رو نداره و نتیجه میشه زندان زیبایی که مردم رو تا حد یک ابزار برای رسیدن به هدف خودش تبدیل میکنه. قبلا در مورد اتم این تست انجام شد.چطور یک کشور برای کشتار مردم از اورانیوم در بمبها استفاده میکنه و یا بمب اتم روی کشوری میریزه
  • BE ۱۵:۲۵ - ۱۴۰۱/۰۵/۰۸
    0 6
    من سی ساله تو کار کامپیوترم همش چرت و پرته

این مطالب را از دست ندهید....

فیلم برگزیده

برگزیده ورزشی

برگزیده عکس