فهرست مطالب

5/5 - (1 امتیاز)

مایکروسافت به‌روزرسانی‌ موتور جستجوی بینگ را با مدل‌های زبانی جدید بهبود می‌بخشد و مدعی است که هزینه‌ها را کاهش داده و نتایج را سریع‌تر و دقیق‌تر ارائه می‌دهد.

مایکروسافت از به‌روزرسانی زیرساخت جستجوی بینگ با استفاده از مدل‌های زبانی بزرگ (LLM)، مدل‌های زبانی کوچک (SLM) و تکنیک‌های بهینه‌سازی جدید خبر داد.

به‌روزرسانی‌ موتور جستجوی بینگ

این به‌روزرسانی با هدف بهبود عملکرد و کاهش هزینه‌ها در ارائه نتایج جستجو طراحی شده است.

مایکروسافت در بیانیه‌ای اعلام کرد:

«در بینگ، ما همیشه در حال گسترش مرزهای فناوری جستجو هستیم. استفاده از مدل‌های زبانی بزرگ (LLM) و مدل‌های زبانی کوچک (SLM) نقطه عطف مهمی در بهبود قابلیت‌های جستجوی ما محسوب می‌شود. در حالی که مدل‌های ترانسفورمری عملکرد خوبی داشته‌اند، پیچیدگی فزاینده پرسش‌های جستجو نیازمند مدل‌های قدرتمندتر بود.»

افزایش عملکرد

استفاده از مدل‌های زبانی بزرگ (LLM) در سیستم‌های جستجو می‌تواند مشکلاتی در سرعت و هزینه ایجاد کند.

برای حل این مشکلات، بینگ مدل‌های زبانی کوچک (SLM) را آموزش داده است که طبق ادعای مایکروسافت، 100 برابر سریع‌تر از LLM‌ها هستند.

در بیانیه مایکروسافت آمده است:

«LLM‌ها می‌توانند گران و کند باشند. برای افزایش کارایی، مدل‌های SLM را آموزش دادیم که با بهبود 100 برابری در بازدهی نسبت به LLM، پرسش‌های جستجو را دقیق‌تر پردازش و درک می‌کنند.»

همچنین بینگ از فناوری NVIDIA TensorRT-LLM برای بهبود عملکرد مدل‌های SLM استفاده می‌کند.

TensorRT-LLM ابزاری است که به کاهش زمان و هزینه اجرای مدل‌های بزرگ بر روی پردازنده‌های گرافیکی NVIDIA کمک می‌کند.

تأثیر بر “جستجوی عمیق”

بر اساس گزارش فنی مایکروسافت، ادغام فناوری TensorRT-LLM انویدیا باعث بهبود قابلیت “جستجوی عمیق” بینگ شده است.

جستجوی عمیق از مدل‌های SLM به‌صورت بلادرنگ برای ارائه نتایج وب مرتبط استفاده می‌کند.

پیش از بهینه‌سازی، مدل ترانسفورمری اولیه بینگ دارای زمان تأخیر 4.76 ثانیه برای هر دسته (20 پرسش) و بازدهی 4.2 پرسش در ثانیه برای هر نمونه بود.

با استفاده از TensorRT-LLM، زمان تأخیر به 3.03 ثانیه برای هر دسته کاهش یافت و بازدهی به 6.6 پرسش در ثانیه برای هر نمونه افزایش پیدا کرد.

این تغییرات نشان‌دهنده کاهش 36 درصدی در زمان تأخیر و کاهش 57 درصدی در هزینه‌های عملیاتی است.

مایکروسافت در این خصوص می‌گوید:

«… محصول ما بر پایه ارائه بهترین نتایج ساخته شده است و ما کیفیت را فدای سرعت نخواهیم کرد. فناوری TensorRT-LLM در اینجا نقش کلیدی ایفا می‌کند، با کاهش زمان پیش‌بینی مدل، تجربه کلی جستجو را سریع‌تر می‌کند، بدون اینکه کیفیت نتایج تحت تأثیر قرار گیرد.»

مزایای به‌روزرسانی برای کاربران بینگ

این به‌روزرسانی مزایای متعددی برای کاربران بینگ به همراه دارد:

  • نتایج جستجوی سریع‌تر با استفاده از مدل‌های بهینه‌شده و کاهش زمان پاسخ‌گویی
  • دقت بالاتر به لطف قابلیت‌های پیشرفته مدل‌های SLM که نتایجی دقیق‌تر و مرتبط‌تر ارائه می‌دهند
  • کاهش هزینه‌ها که به بینگ اجازه می‌دهد در نوآوری‌ها و بهبودهای بیشتر سرمایه‌گذاری کند

چرا حرکت بینگ به سمت مدل‌های LLM/SLM اهمیت دارد

تغییر بینگ به استفاده از مدل‌های LLM/SLM و بهینه‌سازی TensorRT می‌تواند آینده موتورهای جستجو را تحت تأثیر قرار دهد.

با پیچیده‌تر شدن سؤالات کاربران، موتورهای جستجو باید توانایی درک بهتر و ارائه نتایج مرتبط در کوتاه‌ترین زمان ممکن را داشته باشند. بینگ با استفاده از مدل‌های زبانی کوچک‌تر و تکنیک‌های پیشرفته بهینه‌سازی، به دنبال تحقق این هدف است.

هرچند برای مشاهده تأثیر کامل این تغییرات باید منتظر بمانیم، اما حرکت بینگ، شروع فصل جدیدی در دنیای جستجو را رقم می‌زند.

5/5 - (1 امتیاز)