5/5 - (1 امتیاز)

گری ایلیس از گوگل نسبت به تکیه صرف بر پاسخ‌های هوش مصنوعی مانند ChatGPT هشدار داده و استفاده از دانش شخصی و منابع معتبر را توصیه می‌کند.

پاسخ‌های هوش مصنوعی هشدار

گری ایلیس از گوگل، در مورد استفاده از مدل‌های زبانی بزرگ (LLM) هشدار داد و تأکید کرد که قبل از پذیرفتن هر پاسخی از این مدل‌ها، باید منابع معتبر را بررسی کنیم. پاسخ او در پاسخ به یک پرسش بود، اما جالب اینجاست که او این پرسش را منتشر نکرد.

پاسخ‌های هوش مصنوعی مبتنی بر مدل‌های زبانی بزرگ (LLM)

بر اساس گفته‌های گری ایلیس، مشخص است که توصیه او در زمینه استفاده از هوش مصنوعی برای پاسخ به پرسش‌ها مطرح شده است. این اظهارنظر پس از اعلامیه OpenAI در مورد SearchGPT، پروتوتایپ یک موتور جستجوی مبتنی بر هوش مصنوعی، مطرح شده است. البته ممکن است این دو موضوع ارتباطی با هم نداشته باشند و صرفاً یک تصادف باشد.

گری در ابتدا توضیح می‌دهد که مدل‌های زبانی بزرگ چگونه به سوالات پاسخ می‌دهند و به تکنیکی به نام “زمینه‌سازی” اشاره می‌کند که می‌تواند دقت پاسخ‌های تولید شده توسط هوش مصنوعی را بهبود بخشد، اما این روش نیز ۱۰۰٪ کامل نیست و همچنان ممکن است اشتباهاتی رخ دهد. زمینه‌سازی روشی است برای اتصال یک پایگاه داده از حقایق، دانش و صفحات وب به یک مدل زبانی بزرگ. هدف از این کار، زمینه‌سازی پاسخ‌های تولید شده توسط هوش مصنوعی به حقایق معتبر است.

گری در پست خود نوشته است:

“مدل‌های زبانی بزرگ بر اساس داده‌های آموزشی خود، مناسب‌ترین کلمات، عبارات و جملاتی را پیدا می‌کنند که با زمینه و معنای یک درخواست مطابقت داشته باشد.

این امر به آن‌ها امکان می‌دهد پاسخ‌های مرتبط و منسجمی تولید کنند. اما لزوماً پاسخ‌های دقیق و صحیحی نیستند. شما به‌عنوان کاربر این مدل‌ها، همچنان باید پاسخ‌ها را بر اساس دانش خود در مورد موضوعی که در مورد آن از مدل پرسیده‌اید یا با مطالعه منابع معتبر برای پرسش خود، تأیید کنید.

زمینه‌سازی می‌تواند به ایجاد پاسخ‌های دقیق‌تر کمک کند، اما کامل نیست؛ جایگزین مغز شما نمی‌شود. اینترنت پر از اطلاعات نادرست عمدی و غیرعمدی است و شما به همه چیزهایی که در اینترنت می‌خوانید اعتماد نمی‌کنید، پس چرا باید به پاسخ‌های مدل‌های زبانی بزرگ اعتماد کنید؟

افسوس. این پست نیز آنلاین است و ممکن است من خودم یک مدل زبانی بزرگ باشم. خب، شما هر کاری که می‌خواهید انجام دهید.”

محتوا و پاسخ‌های تولیدشده توسط هوش مصنوعی

پست لینکدین گری یادآور این نکته است که مدل‌های زبانی بزرگ (LLM) پاسخ‌هایی تولید می‌کنند که از نظر زمینه با پرسش مطرح‌شده مرتبط هستند، اما لزوماً از نظر واقعیت دقیق نیستند.

اعتبار و قابلیت اعتماد، ویژگی مهمی است که گوگل در تلاش است تا محتوایی را که رتبه‌بندی می‌کند، دارا باشد. بنابراین، به نفع ناشران است که به‌طور مداوم محتوای خود، به‌ویژه محتوای تولیدشده توسط هوش مصنوعی را بررسی کنند تا از کاهش ناخواسته اعتبار خود جلوگیری کنند. نیاز به تأیید حقایق همچنین برای کسانی که از هوش مصنوعی مولد برای یافتن پاسخ استفاده می‌کنند، صادق است.

منبع : Google Advises Caution With AI Generated Answers

5/5 - (1 امتیاز)

مقاله های دیگر