Web Analytics Made Easy - Statcounter

مدل‌های هوش مصنوعی ممکن است به روشی شبیه به انسان پاسخ دهند و بنویسند، اما همیشه ۱۰۰ درصد درست نیستند. ابزار‌های محاوره‌ای مبتنی بر هوش مصنوعی در حال تبدیل شدن به جریان اصلی هستند که برای بسیاری از محققان اطلاعات نادرست، دلیل اصلی نگرانی است.

این هفته گوگل بارد را معرفی کرد، پاسخ خود به Open AI’s ChatGPT، و عرضه ویژگی‌های تقویت‌شده هوش مصنوعی را برای بسیاری از محصولات اصلی خود در رویدادی در پاریس دوچندان کرد.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!

به طور مشابه، مایکروسافت اعلام کرد که ChatGPT به زودی با Bing، موتور جستجوی بسیار بداخلاق خود، یکپارچه خواهد شد. در ماه‌های آینده این ابزار‌های مکالمه به طور گسترده در دسترس خواهند بود، اما در حال حاضر، برخی از مشکلات شروع به ظاهر شدن کرده‌اند.

هوش مصنوعی مکالمه‌ای با استفاده از یک چارچوب شبکه عصبی به نام «مدل‌های زبان بزرگ» (LLM) ساخته شده و در تولید متنی که از نظر گرامری منسجم است و قابل قبول و شبیه انسان به نظر می‌رسد بسیار خوب است. آن‌ها می‌توانند این کار را انجام دهند، زیرا آن‌ها بر روی صد‌ها گیگابایت متن انسانی آموزش دیده‌اند که بیشتر آن از اینترنت گرفته شده است.

برای تولید متن جدید، این مدل با پیش‌بینی «ژتون» بعدی (اصولا یک کلمه یا قطعه از یک کلمه پیچیده) با توجه به دنباله‌ای از نشانه‌ها کار می‌کند بسیاری از محققان این را با تمرین‌های «پر کردن جای خالی» در مدرسه مقایسه کرده‌اند.

متاسفانه، این روش برای پیش‌بینی کلمات و جملات قابل قبول بعدی به این معنی است که هوش مصنوعی مکالمه اغلب ممکن است از نظر واقعی اشتباه باشد، و اگر قبلاً اطلاعات را نمی‌دانید، به راحتی می‌توانید گمراه شوید، زیرا به نظر می‌رسد که آن‌ها می‌دانند درباره چه چیزی صحبت می‌کنند.

یکی از سوالات نمایشی در اعلامیه گوگل این بود که «چه اکتشافات جدیدی از تلسکوپ فضایی جیمز وب را می‌توانم به کودک ۹ ساله خود بگویم؟ در پاسخ، بارد گفت: JWST اولین عکس‌های سیاره‌ای خارج از منظومه شمسی را گرفت.

در حالی که به نظر می‌رسد آن چیزی است که انتظار دارید بزرگترین تلسکوپ فضایی ساخته شده انجام دهد و JWST در واقع سیارات فراخورشیدی را شناسایی می‌کند، اما اولین تلسکوپ فضایی را نیافت؛  رویترز و ناسا اعلام کردند که این افتخار به تلسکوپ بسیار بزرگ رصدخانه جنوبی اروپا (VLT) تعلق می‌گیرد که در سال ۲۰۰۴ یکی از آن‌ها را یافت.

مایکروسافت رویکرد پیشروتری را در پیش گرفته است. پرسش‌های متداول جدید بینگ بیان می‌کند «هوش مصنوعی می‌تواند اشتباه کند» و «بینگ گاهی اطلاعاتی را که پیدا می‌کند اشتباه نشان می‌دهد و ممکن است پاسخ‌هایی را ببینید که قانع‌کننده به نظر می‌رسند، اما ناقص، نادرست یا نامناسب هستند». همچنان از کاربران می‌خواهد تا قضاوت خود را به کار گیرند و حقایقی را که هوش مصنوعی ارائه می‌دهد دوباره بررسی کنند؛ همچنین می‌گوید که می‌توانید از بینگ بپرسید: این اطلاعات را از کجا به دست آورده‌اید؟ تا بدانید از چه منابعی برای ایجاد پاسخ استفاده کرده است.

با این حال این به نظر سیاست مایکروسافت است. بله، مردم باید نسبت به اطلاعاتی که آنلاین می‌خوانند شک داشته باشند، اما وظیفه مایکروسافت نیز این است که مطمئن شود ابزار‌هایی که در اختیار میلیون‌ها کاربر قرار می‌دهد صرفا چیز‌هایی را درست نمی‌کنند و آن‌ها را به‌گونه‌ای ارائه نمی‌کنند که گویی درست است. موتور‌های جست و جو مانند بینگ یکی از بهترین ابزار‌هایی هستند که مردم برای تایید حقایق دارند، آن‌ها نباید به حجم اطلاعات نادرست در آن جا اضافه کنند و این مسئولیت ممکن است از نظر قانونی قابل اجرا باشد.

قانون خدمات دیجیتال اتحادیه اروپا که مدتی در سال ۲۰۲۴ لازم الاجرا خواهد شد، مقرراتی برای جلوگیری از انتشار اطلاعات نادرست دارد. عدم رعایت قانون جدید می‌تواند منجر به جریمه‌هایی تا ۶ درصد از گردش مالی سالانه شرکت شود. با توجه به جریمه‌های هنگفت اخیر اتحادیه اروپا برای شرکت‌های فناوری آمریکا و مقررات موجود مبنی بر اینکه موتور‌های جست و جو باید انواع خاصی از اطلاعات را که می‌توان ثابت کرد نادرست هستند، حذف کنند، به نظر می‌رسد که این بلوک ۲۷ کشوری ممکن است موضع سختی در مورد ایجاد هوش مصنوعی اتخاذ کند.

اطلاعات نادرست به طور برجسته در گوگل یا بینگ نمایش داده می‌شود. آن‌ها در حال حاضر مجبور شده‌اند موضع سخت‌تری در قبال سایر اشکال اطلاعات نادرست تولید شده، مانند دیپ‌فیک‌ها و حساب‌های جعلی رسانه‌های اجتماعی اتخاذ کنند.

با توجه به این که این هوش‌های مصنوعی مکالمه‌ای به زودی به طور گسترده و رایگان در دسترس قرار می‌گیرند، احتمالا شاهد بحث‌های بیشتری در مورد میزان مناسب بودن استفاده از آن‌ها خواهیم بود، به خصوص که ادعا می‌کنند منبع معتبری از اطلاعات هستند. در ضمن بیایید به خاطر داشته باشیم برای این نوع هوش مصنوعی ایجاد مزخرفات منسجم گرامری بسیار ساده‌تر از نوشتن یک پاسخ بررسی شده واقعی به یک پرس و جو است.

منبع: popsci

باشگاه خبرنگاران جوان علمی پزشکی فناوری

منبع: باشگاه خبرنگاران

کلیدواژه: مایکروسافت چت جی پی تی قانون خدمات دیجیتال اطلاعات نادرست نظر می رسد هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.yjc.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۱۸۶۰۴۵ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

احتمال جریمه شدن دومفریس به خاطر تمسخر مدافع میلان

بال هلندی اینتر به خاطر حرکتی که در جریان جشن قهرمانی این تیم انجام داد، احتمالاً جریمه خواهد شد.

به گزارش تسنیم، در جریان جشن قهرمانی شب گذشته (یکشنبه) اینتر در خیابان‌های شهر میلان بابت کسب بیستمین اسکودتو، دنزل دومفریس بال هلندی نراتزوری در حالی که داخل اتوبوس روباز اینتر حضور داشت، از یک هوادار درخواست کرد بنری را که در دست داشت به او بدهد، بنری که مدافع اینتر با بالای سر بردن آن ممکن است به دردسر بیفتد.

در بنری که دومفریس بالای سر برد، سر تئو هرناندس روی بدن یک سگ گذاشته شده و دومفریس با قلاده و زنجیر او را تحت‌کنترل خود دارد. این دو بازیکن در دربی دلامادونینا که دوشنبه هفته پیش در چارچوب هفته سی‌و‌سوم سری A ایتالیا برگزار شد و اینتر با برتری 2 بر یک مقابل میلان، قهرمانی زودهنگامش را مسجل کرد، با هم درگیر شدند که همین منجر به اخراج آنها در دقیقه 3+90 شد.

حالا خبر می‌رسد که فدراسیون فوتبال ایتالیا تحقیقاتی را در مورد دنزل دومفریس بابت بنری که شب گذشته در جریان جشن قهرمانی اینتر در دست داشت و تئو هرناندز را به نوعی مسخره کرد، دنبال می‌کند. طبق گزارش رسانه‌های ایتالیایی بال هلندی اینتر به طور قطع جریمه خواهد شد.

همچنین در جریان جشن قهرمانی شب گذشته اینتر، هواداران این تیم شروع به سر دادن شعارهایی علیه رافائل لیائو و تئو هرناندس (دو بازیکن میلان) کردند که بلافاصله بازیکنان اینتر که میکروفن در دست داشتند، از آنها خواستند که این کار را نکنند و تنها به تشویق اینتر بپردازند.

اینتری‌ها بعدازظهر روز گذشته (یکشنبه) در هفته سی‌و‌چهارم سری A ایتالیا با نتیجه 2 بر صفر تورینو را در ورزشگاه سن‌سیرو از پیش رو برداشتند و سپس راهی جشن خیابانی خود شدند.

کانال عصر ایران در تلگرام

دیگر خبرها

  • چند ترفند ساده برای آن‌که هوش مصنوعی، اطلاعات شما را ندزدد
  • میزبانی آبی‌ها از 7 بازی، قبل از جریمه سنگین (عکس)
  • چطور از دسترسی هوش مصنوعی به اطلاعات حساس جلوگیری کنیم؟
  • ویژگی جدیدی که به ChatGPT اضافه شد | روبات هوش مصنوعی به چه چیزی مجهز شد؟
  • تحقیقات اتحادیه اروپا از متا بر سر کنترل اطلاعات غلط
  • هزینه‌ها کلانی که هوش مصنوعی روی دست مایکروسافت می‌گذارد
  • ChatGPT در تشخیص آبسه مغزی شکست خورد
  • محرومیت سنگین در انتظار ستاره اینتر
  • هوش مصنوعی ChatGPT دادگاهی می‌شود!
  • احتمال جریمه شدن دومفریس به خاطر تمسخر مدافع میلان