فهرست مطالب
گری ایلیس از گوگل نسبت به تکیه صرف بر پاسخهای هوش مصنوعی مانند ChatGPT هشدار داده و استفاده از دانش شخصی و منابع معتبر را توصیه میکند.
گری ایلیس از گوگل، در مورد استفاده از مدلهای زبانی بزرگ (LLM) هشدار داد و تأکید کرد که قبل از پذیرفتن هر پاسخی از این مدلها، باید منابع معتبر را بررسی کنیم. پاسخ او در پاسخ به یک پرسش بود، اما جالب اینجاست که او این پرسش را منتشر نکرد.
پاسخهای هوش مصنوعی مبتنی بر مدلهای زبانی بزرگ (LLM)
بر اساس گفتههای گری ایلیس، مشخص است که توصیه او در زمینه استفاده از هوش مصنوعی برای پاسخ به پرسشها مطرح شده است. این اظهارنظر پس از اعلامیه OpenAI در مورد SearchGPT، پروتوتایپ یک موتور جستجوی مبتنی بر هوش مصنوعی، مطرح شده است. البته ممکن است این دو موضوع ارتباطی با هم نداشته باشند و صرفاً یک تصادف باشد.
گری در ابتدا توضیح میدهد که مدلهای زبانی بزرگ چگونه به سوالات پاسخ میدهند و به تکنیکی به نام “زمینهسازی” اشاره میکند که میتواند دقت پاسخهای تولید شده توسط هوش مصنوعی را بهبود بخشد، اما این روش نیز ۱۰۰٪ کامل نیست و همچنان ممکن است اشتباهاتی رخ دهد. زمینهسازی روشی است برای اتصال یک پایگاه داده از حقایق، دانش و صفحات وب به یک مدل زبانی بزرگ. هدف از این کار، زمینهسازی پاسخهای تولید شده توسط هوش مصنوعی به حقایق معتبر است.
گری در پست خود نوشته است:
“مدلهای زبانی بزرگ بر اساس دادههای آموزشی خود، مناسبترین کلمات، عبارات و جملاتی را پیدا میکنند که با زمینه و معنای یک درخواست مطابقت داشته باشد.
این امر به آنها امکان میدهد پاسخهای مرتبط و منسجمی تولید کنند. اما لزوماً پاسخهای دقیق و صحیحی نیستند. شما بهعنوان کاربر این مدلها، همچنان باید پاسخها را بر اساس دانش خود در مورد موضوعی که در مورد آن از مدل پرسیدهاید یا با مطالعه منابع معتبر برای پرسش خود، تأیید کنید.
زمینهسازی میتواند به ایجاد پاسخهای دقیقتر کمک کند، اما کامل نیست؛ جایگزین مغز شما نمیشود. اینترنت پر از اطلاعات نادرست عمدی و غیرعمدی است و شما به همه چیزهایی که در اینترنت میخوانید اعتماد نمیکنید، پس چرا باید به پاسخهای مدلهای زبانی بزرگ اعتماد کنید؟
افسوس. این پست نیز آنلاین است و ممکن است من خودم یک مدل زبانی بزرگ باشم. خب، شما هر کاری که میخواهید انجام دهید.”
محتوا و پاسخهای تولیدشده توسط هوش مصنوعی
پست لینکدین گری یادآور این نکته است که مدلهای زبانی بزرگ (LLM) پاسخهایی تولید میکنند که از نظر زمینه با پرسش مطرحشده مرتبط هستند، اما لزوماً از نظر واقعیت دقیق نیستند.
اعتبار و قابلیت اعتماد، ویژگی مهمی است که گوگل در تلاش است تا محتوایی را که رتبهبندی میکند، دارا باشد. بنابراین، به نفع ناشران است که بهطور مداوم محتوای خود، بهویژه محتوای تولیدشده توسط هوش مصنوعی را بررسی کنند تا از کاهش ناخواسته اعتبار خود جلوگیری کنند. نیاز به تأیید حقایق همچنین برای کسانی که از هوش مصنوعی مولد برای یافتن پاسخ استفاده میکنند، صادق است.