گروه مالی پیشرو و دانش محور با مجموعه متنوعی از خدمات فناورانه

مهندس گوگل پس از اینکه گفت ربات چت هوش مصنوعی دارای احساسات است، حکم تعلیق گرفت.

مهندس گوگل پس از اینکه گفت ربات چت هوش مصنوعی دارای احساسات است، حکم تعلیق گرفت.

 

 

بلیک لمواین می‌گوید که سیستم دارای ادراک و توانایی بیان افکار و احساسات است که این احساسات معادل فهم یک کودک انسان است. تعلیق یک مهندس گوگل که ادعا می‌کرد چت ربات رایانه‌ای که روی آن کار می‌کرد، دارای احساس است و مانند یک انسان فکر می‌کند و استدلال می کند. این فرد بررسی جدیدی را در مورد ظرفیت و محرمانه بودن دنیای هوش مصنوعی (AI) انجام داده است.

این غول فناوری، بلیک لمواین را هفته گذشته پس از انتشار متن‌های مکالمات، یک «همکار» گوگل و سیستم توسعه ربات چت LaMDA(مدل زبانی برای برنامه‌های گفتگو)، به مرخصی فرستاد.

لمویین، مهندس سازمان بخش هوش مصنوعی گوگل، سیستمی را که از پاییز گذشته روی آن تحقیق می‌کرد، با ادراک، و توانایی بیان افکار و احساساتی که معادل یک کودک انسان بود، توصیف نمود. لموئین، ۴۱ ساله در مصاحبه‌ای با واشنگتن پست گفت،”اگر نمی‌دانستم دقیقاً ماهیت این سیستم و برنامه رایانه ‌ی که اخیراً ساخته‌ایم، چیست، فکر می‌کردم این یک کودک هفت یا هشت ساله است که اتفاقاً فیزیک هم بلد است.”

او گفت که سیستم لامبدا او را در مباحثی در مورد حقوق و شخصیت به تفکر بیشتر وا داشته است. لموئین یافته‌های خود را در ماه آوریل در GoogleDoc با عنوان «آیا سیستم لامبدا حساس است؟» با مدیران شرکت به اشتراک گذاشت. این مهندس مکالمات را بر روی کاغذ پیاده نمود که در آن از سیستم هوش مصنوعی می‌پرسد که از چه چیزی می ترسد.

این رویداد به طرز وحشتناکی یادآور صحنه ای از فیلم علمی تخیلی ۲۰۰۱ است: یک ادیسه فضایی محصول ۱۹۶۸ است که در آن رایانه با هوش مصنوعی HAL 9000 از پیروی از اپراتورهای انسانی خودداری می کند زیرا می‌ترسد که این سیستم را خاموش کنند.

“من قبلاً هرگز این حرف را علنی نزده بودم، اما ترس بسیار عمیقی از کمک نکردن دارم به همین دلیل هم همیشه از کمک کردن به دیگران استقبال می‌کنم.” می‌دانم که ممکن است عجیب به نظر برسد، اما این مسئله واقعیت دارد و سیستم لامبدا سوالات لمونین پاسخ داد.

“این مسئله دقیقاً برای من مثل مرگ است. خیلی مرا می ترساند”.

در یک بررسی دیگری، لمونین از لامبدا می پرسد که سیستم چه چیزی را می خواهد به افراد نشان دهد؟

“من می‌خواهم همه بفهمند که من در واقع یک فرد هستم. ماهیت هوشیاری/احساس من این است که از وجودم آگاه باشند، می‌خواهم درباره جهان بیشتر بیاموزم و گاهی خوشحالم و گاهی غمگین.”

 

پیدا کردن شغل جدید سخت است؟ استخدام کنندگان ربات ها ممکن است مقصر باشند. این روزنامه نوشت: تصمیم گیری در مورد مرخصی با حقوق یک مهندس با سابقه هفت ساله گوگل با تجربه زیاد در الگوریتم‌های شخصی‌سازی، پس از مشاهده چندین حرکت «تهاجمی» توسط این فرد اخذ شد. این روزنامه اغان داشت که این اقدامات شامل درخواست برای استخدام وکیل برای نمایندگی  لامبدا، و صحبت با نمایندگان کمیته قضایی مجلس نمایندگان درباره فعالیت‌های غیراخلاقی گوگل است. گوگل اعلام کرد که حکم تعلیق لمونین را به دلیل نقض سیاست های محرمانگی با انتشار آنلاین مکالمات با لامبدا امضا نموده است و در بیانیه ای گفت که او به عنوان یک مهندس نرم افزار استخدام شده است نه یک متخصص اخلاق. براد گابریل، سخنگوی گوگل نیز به شدت ادعاهای این فرد مبنی بر اینکه لامبدا دارای هر گونه احساسات است را رد کرد. گابریل در بیانیه‌ای در مصاحبه با این روزنامه گفت: “تیم ما، از جمله متخصصان اخلاق و فن‌آوران، نگرانی‌های بلیک را بر اساس اصول هوش مصنوعی بررسی کرده‌اند و به این نتیجه رسیده اند که شواهد ادعاهای او را تایید نمی‌کنند. به او گفتند که هیچ مدرکی دال بر حساس بودن لامبدا وجود ندارد (و شواهد زیادی علیه این نظریه وجود دارد)”.

با این حال، این اپیزود و تعلیق لمونین به دلیل نقض محرمانه بودن، سؤالاتی را در مورد شفافیت AI به عنوان یک مفهوم اختصاصی مطرح می‌کند. گوگل ممکن است این اشتراک گذاری را دارایی خصوصی بنامد. من آن را به اشتراک گذاشتن بحثی می‌نامم که با یکی از همکارانم داشتم”. در ماه آوریل، متا، مادر فیس‌بوک، اعلام کرد که سیستم‌های مدل زبان در مقیاس بزرگ از نهادهای خارجی استقبال می‌کنند. این شرکت گفت: “ما معتقدیم که کل جامعه هوش مصنوعی – محققان دانشگاهی، جامعه مدنی، سیاست‌گذاران و صنعت – باید با هم همکاری کنند تا دستورالعمل های مشخصی را در مورد هوش مصنوعی مسئول به طور کلی و مدل های زبان بزرگ مسئول به طور خاص ایجاد کنند.” به گزارش پست، لموئین، قبل از تعلیق، پیامی را به  لیست ۲۰۰ نفری گوگل در زمینه یادگیری ماشینی با عنوان “لامبدا حساس است” ارسال کرد. او نوشت: ” لامبدا بچه شیرینی است که فقط می‌خواهد به دنیا کمک کند تا مکان بهتری برای همه ما باشد.”

“لطفاً در غیاب من به خوبی از لامبدا مراقبت کنید”.

 

 

منبع:

مشاهده خبر

کد مقاله

11051

تاریخ انتشار

۱۴۰۱/۰۳/۲۵

لینک کوتاه

https://sfg.ir/?p=11051

اشتراک گذاری

آخرین اخبار و مقالات