جمعه ۱۰ فروردين ۱۴۰۳ - 2024 March 29 - ۱۸ رمضان ۱۴۴۵
۰۳ بهمن ۱۳۹۶ - ۰۸:۳۰

ارائه الگوریتمی برای همکاری بهتری ماشین‌ها نسبت به انسان‌ها

متخصصان رایانه قصد دارند الگوریتم جدیدی را تهیه کنند که اجازه می‌دهد ماشین‌ها با یکدیگر همکاری و سازش بهتری نسبت به انسانها داشته باشند.
کد خبر: ۱۹۷۴۹۴
به گزارش ایران اکونومیست به نقل از گیزمگ، واضح است که اکنون ماشین‌ها می‌توانند ما را در بسیاری از بازی‌های ساده "مجموع-صفر" شکست دهند.

در نظریه بازی‌ها و علم اقتصاد، یک بازی مجموع-صفر، یک مدل ریاضی از وضعیتی است که سود (یا زیان) یک شرکت کننده، دقیقاً متعادل با زیان‌های (یا سودهای) شرکت کننده (های) دیگر است

پژوهش جدید یک گروه بین‌المللی از دانشمندان رایانه، قرار است نوع جدیدی از الگوریتم بازی کردن را ابداع کند که در آن، بازی‌هایی انجام شود که بر ویژگی‌هایی مانند همکاری و سازش تکیه دارد. پژوهشگران دریافته‌اند که ماشین‌ها می‌توانند این ویژگی‌ها را بهتر از انسان‌ها به کار گیرند.

"شطرنج"، "گو" و "پوکر"، بازی‌های تقابلی هستند که در آن، دو بازیکن یا بیشتر با یکدیگر مقابله می‌کنند. بازی‌هایی از این قبیل، نقاط عطف واضحی دارند که فرآیند رشد هوش مصنوعی را اندازه‌گیری می‌کنند و موجب می‌شود انسان‌ها در مقابل رایانه‌هایی با یک برنده ملموس قرار بگیرند.

اما در شرایط مختلف دنیای واقعی که هوش مصنوعی در آن فعالیت می‌کند، نیازمند ارتباطات بلندمدت پیچیده میان انسان‌ها و ماشین‌ها است.

"ژاکوب کرندال"" (Jacob Crandall)، نویسنده ارشد این پژوهش جدید می‌گوید: هدف نهایی ما، فهمیدن ریاضیات ورای همکاری با مردم و ویژگی‌های مورد نیاز برای رشد مهارت‌های اجتماعی است. هوش مصنوعی باید قادر باشد به ما پاسخ دهد و آنچه در حال انجام گرفتن است، بیان کند. همچنین باید توانایی تعامل با مردم را داشته باشد.

این گروه پژوهشی، الگوریتمی موسوم به "S#" ابداع کرد و عملکرد آن را در سرتاسر بازی‌های دو نفره شامل هر یک از تعاملات ماشین با ماشین، انسان با ماشین و انسان با انسان، آزمایش کرد.

بازی‌های انتخاب شده از جمله بازی "دوراهی زندانی" و "بازی شپلی"، هر دو برای یک بازیکن برای رسیدن به نتیجه نهایی بالا، به سطوح گوناگونی از همکاری یا سازش نیاز داشتند. این نتایج جذاب بودند و نشان دادند که در بیشتر موارد در بازی‌ها ماشین‌ها از انسانها عملکرد بهتری داشتند.

کرندال ادامه می‌دهد: دو انسان، اگر نسبت به هم درستکار و وفادار بودند، مثل دو ماشین عمل می‌کردند. حدود نیمی از انسان‌ها در بعضی موارد دروغ گفتند. این الگوریتم خاص، اساسا یاد می‌گیرد که ویژگی‌های اخلاقی خوب هستند و طوری برنامه‌ریزی شده که دروغ نگوید و هنگام ظاهر شدن دروغ، همکاری را حفظ کند.

یک تکنیک جالب گنجانده شده در این الگوریتم، توانایی ماشین برای مشغول شدن به یک ویژگی بود که پژوهشگران آن را "گفتگوی بی‌ارزش" می‌نامند.

این گفتگوها، عباراتی هستند که ماشین هم در پاسخ به ژست همکاری (عالی! ما ثروتمند می‌شویم!) و هم به عنوان واکنشی به شرکت‌کننده دیگر که دروغ می‌گوید یا تقلب می‌کند (تاوانش را خواهی داد!) به کار می‌رود.

هنگامی که ماشین‌ها از گفتگوی بی ارزش استفاده کردند، بازیکنان انسان معمولا قادر نبودند هنگام بازی با ماشین، انتخاب کنند و در بیشتر موارد، نظرات، میزان همکاری را دوبرابر کرد.

به گفته پژوهشگران، امکان دارد این یافته‌ها، پایه‌ای برای ماشین‌های خودکار بهتر در آینده شوند چرا که فناوری‌هایی مانند خودروهای خودران برای تعامل با انسان‌ها و ماشین‌های دیگر که اغلب اهداف مشابهی را دنبال نمی‌کنند به ماشین‌هایی نیاز دارند.

این پژوهش در مجله " Nature Communications" به چاپ رسید.
نظر شما در این رابطه چیست
آخرین اخبار