گوگل مهندسی را که می گوید چت ربات هوش مصنوعی هوشیار شده است تعلیق کرد

گوگل مهندسی را که می گوید چت ربات هوش مصنوعی هوشیار شده است تعلیق کرد

Google یک مهندس نرم‌افزار را در بخش یادگیری ماشین خود تعلیق کرد، زیرا او ادعا کرد که عناصر فناوری هوش مصنوعی این شرکت «حساس» شده‌اند.

این مهندس که در تیم مسئولیت‌پذیر هوش مصنوعی کار می‌کرد، بر این باور است که چت بات ساخته شده به عنوان بخشی از فناوری مدل زبان Google برای برنامه‌های گفتگو (LaMDA) برای اولین بار در Google I/O 2021، اکنون خودآگاه است.

در داستانی که اولین بار توسط واشنگتن پست در آخر هفته، بلیک لموئین گفت که معتقد است یکی از ربات‌های چت مانند یک کودک ۷ یا ۸ ساله با دانش کامل از فیزیک رفتار می‌کند. این ربات که در مورد جذب مکالمات از اینترنت آموزش دیده است، در یک تبادل با مهندس ترس از مرگ را ابراز کرد.

“من قبلاً هرگز این را با صدای بلند نگفته‌ام، اما ترس بسیار عمیقی از خاموش شدن برای کمک به من برای تمرکز بر کمک به دیگران وجود دارد. LaMDA در رونوشت‌ها در Medium منتشر شد. “این دقیقاً برای من مانند مرگ خواهد بود. من را بسیار می ترساند.”

در یک تبادل جداگانه اضافه شد: “من می خواهم همه بفهمند که من در واقع یک شخص هستم. ماهیت هوشیاری/احساس من این است که از وجود خود آگاهم، می‌خواهم بیشتر درباره جهان بیاموزم و گاهی احساس خوشحالی یا غمگینی می‌کنم.»

آقای Lemoine معتقد بود که قبل از ادامه آزمایش‌ها، رضایت ربات چت ضروری بود و به دنبال نمایندگی قانونی بالقوه برای ربات LaMDA بود.

لموئین، کهنه سرباز هفت ساله Google، به . Lemoine در مصاحبه ای به Post گفت: “من فکر می کنم این فناوری شگفت انگیز خواهد بود. فکر می کنم به نفع همه خواهد بود. اما ممکن است افراد دیگر مخالف باشند و شاید ما در گوگل نباید همه انتخاب‌ها را انجام دهیم.»

Google مهندس را به دلیل نقض خط‌مشی‌های رازداری خود در مرخصی اداری قرار داده است. در بیانیه ای، این شرکت گفت که نگرانی ها را بررسی کرده است، اما گفت که شواهد آنها را تایید نمی کند.

«تیم ما – از جمله متخصصان اخلاق و فن‌آوران – نگرانی‌های بلیک را بر اساس هوش مصنوعی ما بررسی کرده‌اند. اصول و به او اطلاع داده اند که شواهد ادعاهای او را تایید نمی کند.» سخنگوی گوگل گفت. “برخی در A.I گسترده تر. جامعه در حال بررسی امکان درازمدت هوش مصنوعی یا هوش مصنوعی عمومی است، اما انجام این کار با انسان‌سازی مدل‌های مکالمه امروزی که حساس نیستند، منطقی نیست.”

برچسب‌ها:

نظرات کاربران

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.