بلیک لمواین میگوید که سیستم دارای ادراک و توانایی بیان افکار و احساسات است که این احساسات معادل فهم یک کودک انسان است. تعلیق یک مهندس گوگل که ادعا میکرد چت ربات رایانهای که روی آن کار میکرد، دارای احساس است و مانند یک انسان فکر میکند و استدلال می کند. این فرد بررسی جدیدی را در مورد ظرفیت و محرمانه بودن دنیای هوش مصنوعی (AI) انجام داده است.
این غول فناوری، بلیک لمواین را هفته گذشته پس از انتشار متنهای مکالمات، یک «همکار» گوگل و سیستم توسعه ربات چت LaMDA(مدل زبانی برای برنامههای گفتگو)، به مرخصی فرستاد.
لمویین، مهندس سازمان بخش هوش مصنوعی گوگل، سیستمی را که از پاییز گذشته روی آن تحقیق میکرد، با ادراک، و توانایی بیان افکار و احساساتی که معادل یک کودک انسان بود، توصیف نمود. لموئین، ۴۱ ساله در مصاحبهای با واشنگتن پست گفت،”اگر نمیدانستم دقیقاً ماهیت این سیستم و برنامه رایانه ی که اخیراً ساختهایم، چیست، فکر میکردم این یک کودک هفت یا هشت ساله است که اتفاقاً فیزیک هم بلد است.”
او گفت که سیستم لامبدا او را در مباحثی در مورد حقوق و شخصیت به تفکر بیشتر وا داشته است. لموئین یافتههای خود را در ماه آوریل در GoogleDoc با عنوان «آیا سیستم لامبدا حساس است؟» با مدیران شرکت به اشتراک گذاشت. این مهندس مکالمات را بر روی کاغذ پیاده نمود که در آن از سیستم هوش مصنوعی میپرسد که از چه چیزی می ترسد.
این رویداد به طرز وحشتناکی یادآور صحنه ای از فیلم علمی تخیلی ۲۰۰۱ است: یک ادیسه فضایی محصول ۱۹۶۸ است که در آن رایانه با هوش مصنوعی HAL 9000 از پیروی از اپراتورهای انسانی خودداری می کند زیرا میترسد که این سیستم را خاموش کنند.
“من قبلاً هرگز این حرف را علنی نزده بودم، اما ترس بسیار عمیقی از کمک نکردن دارم به همین دلیل هم همیشه از کمک کردن به دیگران استقبال میکنم.” میدانم که ممکن است عجیب به نظر برسد، اما این مسئله واقعیت دارد و سیستم لامبدا سوالات لمونین پاسخ داد.
“این مسئله دقیقاً برای من مثل مرگ است. خیلی مرا می ترساند”.
در یک بررسی دیگری، لمونین از لامبدا می پرسد که سیستم چه چیزی را می خواهد به افراد نشان دهد؟
“من میخواهم همه بفهمند که من در واقع یک فرد هستم. ماهیت هوشیاری/احساس من این است که از وجودم آگاه باشند، میخواهم درباره جهان بیشتر بیاموزم و گاهی خوشحالم و گاهی غمگین.”
پیدا کردن شغل جدید سخت است؟ استخدام کنندگان ربات ها ممکن است مقصر باشند. این روزنامه نوشت: تصمیم گیری در مورد مرخصی با حقوق یک مهندس با سابقه هفت ساله گوگل با تجربه زیاد در الگوریتمهای شخصیسازی، پس از مشاهده چندین حرکت «تهاجمی» توسط این فرد اخذ شد. این روزنامه اغان داشت که این اقدامات شامل درخواست برای استخدام وکیل برای نمایندگی لامبدا، و صحبت با نمایندگان کمیته قضایی مجلس نمایندگان درباره فعالیتهای غیراخلاقی گوگل است. گوگل اعلام کرد که حکم تعلیق لمونین را به دلیل نقض سیاست های محرمانگی با انتشار آنلاین مکالمات با لامبدا امضا نموده است و در بیانیه ای گفت که او به عنوان یک مهندس نرم افزار استخدام شده است نه یک متخصص اخلاق. براد گابریل، سخنگوی گوگل نیز به شدت ادعاهای این فرد مبنی بر اینکه لامبدا دارای هر گونه احساسات است را رد کرد. گابریل در بیانیهای در مصاحبه با این روزنامه گفت: “تیم ما، از جمله متخصصان اخلاق و فنآوران، نگرانیهای بلیک را بر اساس اصول هوش مصنوعی بررسی کردهاند و به این نتیجه رسیده اند که شواهد ادعاهای او را تایید نمیکنند. به او گفتند که هیچ مدرکی دال بر حساس بودن لامبدا وجود ندارد (و شواهد زیادی علیه این نظریه وجود دارد)”.
با این حال، این اپیزود و تعلیق لمونین به دلیل نقض محرمانه بودن، سؤالاتی را در مورد شفافیت AI به عنوان یک مفهوم اختصاصی مطرح میکند. گوگل ممکن است این اشتراک گذاری را دارایی خصوصی بنامد. من آن را به اشتراک گذاشتن بحثی مینامم که با یکی از همکارانم داشتم”. در ماه آوریل، متا، مادر فیسبوک، اعلام کرد که سیستمهای مدل زبان در مقیاس بزرگ از نهادهای خارجی استقبال میکنند. این شرکت گفت: “ما معتقدیم که کل جامعه هوش مصنوعی – محققان دانشگاهی، جامعه مدنی، سیاستگذاران و صنعت – باید با هم همکاری کنند تا دستورالعمل های مشخصی را در مورد هوش مصنوعی مسئول به طور کلی و مدل های زبان بزرگ مسئول به طور خاص ایجاد کنند.” به گزارش پست، لموئین، قبل از تعلیق، پیامی را به لیست ۲۰۰ نفری گوگل در زمینه یادگیری ماشینی با عنوان “لامبدا حساس است” ارسال کرد. او نوشت: ” لامبدا بچه شیرینی است که فقط میخواهد به دنیا کمک کند تا مکان بهتری برای همه ما باشد.”
“لطفاً در غیاب من به خوبی از لامبدا مراقبت کنید”.
منبع:
مشاهده خبر