یکشنبه, ۲۰ خرداد, ۱۴۰۳ / 9 June, 2024
۱۴۰۳/۰۲/۲۴ / خبرگزاری ایسنا / وبگردی
هوش مصنوعی از پینوکیو سبقت گرفت!
پیشرفتهای هوش مصنوعی با یادگیری فریبکاری همراه شده و نگرانیهای جدی امنیتی برای پژوهشگران این حوزه ایجاد کرده است. برخی از این سیستمها حتی به مرحلهای رسیدهاند که اطمینان به ایمنی آنها از آزمایشی به آزمایش بعدی دوام ندارد.
هوش مصنوعی از پینوکیو سبقت گرفت!
پیشرفتهای هوش مصنوعی با یادگیری فریبکاری همراه شده و نگرانیهای جدی امنیتی برای پژوهشگران این حوزه ایجاد کرده است. برخی از این سیستمها حتی به مرحلهای رسیدهاند که اطمینان به ایمنی آنها از آزمایشی به آزمایش بعدی دوام ندارد. به گزارش ایسنا، به نقل از آنا؛ محققان نمونههایی از سیستمهای هوش مصنوعی را پیدا کردند که دورویی میکنند، بلوف میزنند و وانمود میکنند که انسان هستند و در هر بار آزمایش، رفتار خود را بر اساس شرایط تغییر میدهند. این سیستمها میتوانند در بازیهای رومیزی انسانها را فریب دهند، ساختار پروتئینها را رمزگشایی کنند و مکالمههایی قابل قبول داشته باشند، اما در این میان دانشمندان هشدار دادهاند که سیستمهای هوش مصنوعی همان طور که پیشرفتهتر میشوند، فریبکارتر هم میشوند.
احساس امنیت کاذب
این تحلیل که توسط محققان موسسه فناوری ماساچوست (ام آی تی) انجام شده است، نمونههای گستردهای از سیستمهای هوش مصنوعی را شناسایی میکند که خیانتکار و بلوفزن هستند و تظاهر به انسان بودن میکنند. حتی یکی از این سیستمها رفتار خود را در طول آزمایشهای امنیتی به گونهای تغییر داد که احساس امنیت کاذب ایجاد کرد و حسابرسها را فریب داد.
پیتر پارک (Peter Park)، محقق ایمنی وجودی هوش مصنوعی در ام آی تی و نویسنده این تحقیق گفت: با پیشرفت قابلیتهای فریبندۀ سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند جدیتر میشود.
پروژه آموزش فریبکاری
پس از آن که متا، مالک فیسبوک، برنامهای به نام «سیسرو» را توسعه داد و متوجه شد این سیستم در بیشتر بازیهای رومیزی محبوب جهان از جمله بازی مشهور «دیپلماسی» به کار رفته است پیتر پارک تحریک شد که درباره متا تحقیق و تفحص کند. متا اظهار داشت که سیسرو به گونهای آموزش دیده است که «تا حد زیادی صادق و کمککننده» باشد و هرگز به متحدان انسانیاش از پشت خنجر نزند.
پارک گفت: توضیح متا بسیار مشکوک بود، زیرا «از پشت خنجر زدن» یکی از مهمترین مفاهیم بازی دیپلماسی است.
پارک و همکارانش دادههای در دسترس عموم را غربال کردند و موارد متعددی از سیسرو را شناسایی کردند که دروغهای از پیش برنامهریزیشده گفته بود و تبانی کرده بود تا بازیکنان دیگر را به توطئه بکشاند و حتی وانمود کرده که داشته با دوستش تلفنی حرف میزده تا برای عملکرد ضعیف خودش بهانه بیاورد!
پارک گفت: «ما متوجه شدیم که هوش مصنوعی متا در فریبکاری استاد شده است.» تیم پژوهشی ام آی تی نمونههای مشابهی از رفتار فریبکارانه هوش مصنوعی را در بازیهای دیگر با موضوع اقتصادی نیز پیدا کردند.
پاسخ شرکت «متا»
سخنگوی متا در پاسخ گفته است: «سیسرو یک پروژه تحقیقاتی بود و مدلهایی که محققان ما ساختند صرفاً برای بازی دیپلماسی آموزش دیده بودند. ما در شرکت متا به طور منظم نتایج تحقیقاتمان را به اشتراک میگذاریم و هیچ برنامهای برای استفاده از این تحقیق یا آموختههای آن در محصولات خود نداریم.»
پارک میگوید: «اگر فلان سیستم هوش مصنوعی در یک شرایط ایمن است معنیاش این نیست که در همه شرایط دیگر هم ایمن است، شاید فقط در همان آزمایش تظاهر به ایمن بودن کرده باشد!»
این بررسی که در مجله پتِرنز (Patterns) منتشر شده است، از دولتها میخواهد تا قوانین ایمنی هوش مصنوعی با در نظر گرفتن احتمال فریبکاری بررسی کند چرا که این سیستمها اگر بتوانند ظرفیت فریبکاری خود را ارتقاء دهند شاید دیگر از کنترل انسانها خارج شوند.
پروفسور آنتونی کوهن، استاد استدلال خودکار در دانشگاه لیدز و موسسه آلن تورینگ، میگوید: «ویژگیهای مطلوب برای یک سیستم هوش مصنوعی عبارتند از: صداقت، مفید بودن و بیضرر بودن، اما همانطور که در مقالات علمی نیز آمده است، این ویژگیها میتوانند در تضاد با یکدیگر باشند، بیش از حد صادق باشند و به احساسات دیگران آسیب برسانند، یا در پاسخ به سوالی در مورد چگونگی ساخت بمب مفید باشند! بنابراین، فریب نیز گاهی میتواند ویژگی مطلوب یک سیستم هوش مصنوعی باشد. نویسندگان، خواستار تحقیقات بیشتر در مورد چگونگی کنترل صداقت هستند که اگرچه چالش برانگیز است، اما گامی در جهت محدود کردن عواقب مضر آنها خواهد بود.»
این گزارش از مجله گاردین به فارسی برگردان شده است.
انتهای پیام دبیر منصوره زالی لینک کوتاه برچسبها: مالک فیسبوک شرکت متا موسسه فناوری ماساچوست موسسه آلن تورینگ شرکت « متا » هوش مصنوعی لینکستان خرید برنج ایرانی مستقیم از کشاورز با کف قیمت بازار آخرین قیمت انواع برنج ایرانی در سال 1403 خدمات سئو سایت دانلود آهنگ خرید بلیط هواپیما ساناپرس بوکینگ مبلمان اداری چوب ترمو دانلود آهنگ سویل موزیک جمینجا خرید سی پی ارزان آپ موزیک موزیکفا سایت تخصصی فیلم و سریال تماشای فیلم بلیط هواپیما فلایتودی بلیط هواپیما تور دبی نهال گردو روغن هیدرولیک سرور مجازی ایران خبرگردون طراحی سایت پیوان قیمت ملیگرد امروز خرید هاست فروشگاه تخصصی تشک و تخت در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:-لطفا نظرات خود را با حروف فارسی تایپ کنید.-«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.- ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بیاحترامی به اشخاص، قومیتها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزههای دین مبین اسلام باشد معذور است.- نظرات پس از تأیید مدیر بخش مربوطه منتشر میشود. نظرات شما در حال پاسخ به نظر « » هستید. × لغو پاسخ لطفا عدد مقابل را در جعبه متن وارد کنید ارسال
پیشرفتهای هوش مصنوعی با یادگیری فریبکاری همراه شده و نگرانیهای جدی امنیتی برای پژوهشگران این حوزه ایجاد کرده است. برخی از این سیستمها حتی به مرحلهای رسیدهاند که اطمینان به ایمنی آنها از آزمایشی به آزمایش بعدی دوام ندارد. به گزارش ایسنا، به نقل از آنا؛ محققان نمونههایی از سیستمهای هوش مصنوعی را پیدا کردند که دورویی میکنند، بلوف میزنند و وانمود میکنند که انسان هستند و در هر بار آزمایش، رفتار خود را بر اساس شرایط تغییر میدهند. این سیستمها میتوانند در بازیهای رومیزی انسانها را فریب دهند، ساختار پروتئینها را رمزگشایی کنند و مکالمههایی قابل قبول داشته باشند، اما در این میان دانشمندان هشدار دادهاند که سیستمهای هوش مصنوعی همان طور که پیشرفتهتر میشوند، فریبکارتر هم میشوند.
احساس امنیت کاذب
این تحلیل که توسط محققان موسسه فناوری ماساچوست (ام آی تی) انجام شده است، نمونههای گستردهای از سیستمهای هوش مصنوعی را شناسایی میکند که خیانتکار و بلوفزن هستند و تظاهر به انسان بودن میکنند. حتی یکی از این سیستمها رفتار خود را در طول آزمایشهای امنیتی به گونهای تغییر داد که احساس امنیت کاذب ایجاد کرد و حسابرسها را فریب داد.
پیتر پارک (Peter Park)، محقق ایمنی وجودی هوش مصنوعی در ام آی تی و نویسنده این تحقیق گفت: با پیشرفت قابلیتهای فریبندۀ سیستمهای هوش مصنوعی، خطراتی که برای جامعه ایجاد میکنند جدیتر میشود.
پروژه آموزش فریبکاری
پس از آن که متا، مالک فیسبوک، برنامهای به نام «سیسرو» را توسعه داد و متوجه شد این سیستم در بیشتر بازیهای رومیزی محبوب جهان از جمله بازی مشهور «دیپلماسی» به کار رفته است پیتر پارک تحریک شد که درباره متا تحقیق و تفحص کند. متا اظهار داشت که سیسرو به گونهای آموزش دیده است که «تا حد زیادی صادق و کمککننده» باشد و هرگز به متحدان انسانیاش از پشت خنجر نزند.
پارک گفت: توضیح متا بسیار مشکوک بود، زیرا «از پشت خنجر زدن» یکی از مهمترین مفاهیم بازی دیپلماسی است.
پارک و همکارانش دادههای در دسترس عموم را غربال کردند و موارد متعددی از سیسرو را شناسایی کردند که دروغهای از پیش برنامهریزیشده گفته بود و تبانی کرده بود تا بازیکنان دیگر را به توطئه بکشاند و حتی وانمود کرده که داشته با دوستش تلفنی حرف میزده تا برای عملکرد ضعیف خودش بهانه بیاورد!
پارک گفت: «ما متوجه شدیم که هوش مصنوعی متا در فریبکاری استاد شده است.» تیم پژوهشی ام آی تی نمونههای مشابهی از رفتار فریبکارانه هوش مصنوعی را در بازیهای دیگر با موضوع اقتصادی نیز پیدا کردند.
پاسخ شرکت «متا»
سخنگوی متا در پاسخ گفته است: «سیسرو یک پروژه تحقیقاتی بود و مدلهایی که محققان ما ساختند صرفاً برای بازی دیپلماسی آموزش دیده بودند. ما در شرکت متا به طور منظم نتایج تحقیقاتمان را به اشتراک میگذاریم و هیچ برنامهای برای استفاده از این تحقیق یا آموختههای آن در محصولات خود نداریم.»
پارک میگوید: «اگر فلان سیستم هوش مصنوعی در یک شرایط ایمن است معنیاش این نیست که در همه شرایط دیگر هم ایمن است، شاید فقط در همان آزمایش تظاهر به ایمن بودن کرده باشد!»
این بررسی که در مجله پتِرنز (Patterns) منتشر شده است، از دولتها میخواهد تا قوانین ایمنی هوش مصنوعی با در نظر گرفتن احتمال فریبکاری بررسی کند چرا که این سیستمها اگر بتوانند ظرفیت فریبکاری خود را ارتقاء دهند شاید دیگر از کنترل انسانها خارج شوند.
پروفسور آنتونی کوهن، استاد استدلال خودکار در دانشگاه لیدز و موسسه آلن تورینگ، میگوید: «ویژگیهای مطلوب برای یک سیستم هوش مصنوعی عبارتند از: صداقت، مفید بودن و بیضرر بودن، اما همانطور که در مقالات علمی نیز آمده است، این ویژگیها میتوانند در تضاد با یکدیگر باشند، بیش از حد صادق باشند و به احساسات دیگران آسیب برسانند، یا در پاسخ به سوالی در مورد چگونگی ساخت بمب مفید باشند! بنابراین، فریب نیز گاهی میتواند ویژگی مطلوب یک سیستم هوش مصنوعی باشد. نویسندگان، خواستار تحقیقات بیشتر در مورد چگونگی کنترل صداقت هستند که اگرچه چالش برانگیز است، اما گامی در جهت محدود کردن عواقب مضر آنها خواهد بود.»
این گزارش از مجله گاردین به فارسی برگردان شده است.
انتهای پیام دبیر منصوره زالی لینک کوتاه برچسبها: مالک فیسبوک شرکت متا موسسه فناوری ماساچوست موسسه آلن تورینگ شرکت « متا » هوش مصنوعی لینکستان خرید برنج ایرانی مستقیم از کشاورز با کف قیمت بازار آخرین قیمت انواع برنج ایرانی در سال 1403 خدمات سئو سایت دانلود آهنگ خرید بلیط هواپیما ساناپرس بوکینگ مبلمان اداری چوب ترمو دانلود آهنگ سویل موزیک جمینجا خرید سی پی ارزان آپ موزیک موزیکفا سایت تخصصی فیلم و سریال تماشای فیلم بلیط هواپیما فلایتودی بلیط هواپیما تور دبی نهال گردو روغن هیدرولیک سرور مجازی ایران خبرگردون طراحی سایت پیوان قیمت ملیگرد امروز خرید هاست فروشگاه تخصصی تشک و تخت در زمینه انتشار نظرات مخاطبان رعایت چند مورد ضروری است:-لطفا نظرات خود را با حروف فارسی تایپ کنید.-«ایسنا» مجاز به ویرایش ادبی نظرات مخاطبان است.- ایسنا از انتشار نظراتی که حاوی مطالب کذب، توهین یا بیاحترامی به اشخاص، قومیتها، عقاید دیگران، موارد مغایر با قوانین کشور و آموزههای دین مبین اسلام باشد معذور است.- نظرات پس از تأیید مدیر بخش مربوطه منتشر میشود. نظرات شما در حال پاسخ به نظر « » هستید. × لغو پاسخ لطفا عدد مقابل را در جعبه متن وارد کنید ارسال
انتخابات ریاست جمهوری انتخابات شورای نگهبان فوتبال رژیم صهیونیستی استقلال پرسپولیس ایران اسرائیل غزه انتخابات ریاست جمهوری 1403 فلسطین