فهرست مطالب
مایکروسافت بهروزرسانی موتور جستجوی بینگ را با مدلهای زبانی جدید بهبود میبخشد و مدعی است که هزینهها را کاهش داده و نتایج را سریعتر و دقیقتر ارائه میدهد.
مایکروسافت از بهروزرسانی زیرساخت جستجوی بینگ با استفاده از مدلهای زبانی بزرگ (LLM)، مدلهای زبانی کوچک (SLM) و تکنیکهای بهینهسازی جدید خبر داد.
این بهروزرسانی با هدف بهبود عملکرد و کاهش هزینهها در ارائه نتایج جستجو طراحی شده است.
مایکروسافت در بیانیهای اعلام کرد:
«در بینگ، ما همیشه در حال گسترش مرزهای فناوری جستجو هستیم. استفاده از مدلهای زبانی بزرگ (LLM) و مدلهای زبانی کوچک (SLM) نقطه عطف مهمی در بهبود قابلیتهای جستجوی ما محسوب میشود. در حالی که مدلهای ترانسفورمری عملکرد خوبی داشتهاند، پیچیدگی فزاینده پرسشهای جستجو نیازمند مدلهای قدرتمندتر بود.»
افزایش عملکرد
استفاده از مدلهای زبانی بزرگ (LLM) در سیستمهای جستجو میتواند مشکلاتی در سرعت و هزینه ایجاد کند.
برای حل این مشکلات، بینگ مدلهای زبانی کوچک (SLM) را آموزش داده است که طبق ادعای مایکروسافت، 100 برابر سریعتر از LLMها هستند.
در بیانیه مایکروسافت آمده است:
«LLMها میتوانند گران و کند باشند. برای افزایش کارایی، مدلهای SLM را آموزش دادیم که با بهبود 100 برابری در بازدهی نسبت به LLM، پرسشهای جستجو را دقیقتر پردازش و درک میکنند.»
همچنین بینگ از فناوری NVIDIA TensorRT-LLM برای بهبود عملکرد مدلهای SLM استفاده میکند.
TensorRT-LLM ابزاری است که به کاهش زمان و هزینه اجرای مدلهای بزرگ بر روی پردازندههای گرافیکی NVIDIA کمک میکند.
تأثیر بر “جستجوی عمیق”
بر اساس گزارش فنی مایکروسافت، ادغام فناوری TensorRT-LLM انویدیا باعث بهبود قابلیت “جستجوی عمیق” بینگ شده است.
جستجوی عمیق از مدلهای SLM بهصورت بلادرنگ برای ارائه نتایج وب مرتبط استفاده میکند.
پیش از بهینهسازی، مدل ترانسفورمری اولیه بینگ دارای زمان تأخیر 4.76 ثانیه برای هر دسته (20 پرسش) و بازدهی 4.2 پرسش در ثانیه برای هر نمونه بود.
با استفاده از TensorRT-LLM، زمان تأخیر به 3.03 ثانیه برای هر دسته کاهش یافت و بازدهی به 6.6 پرسش در ثانیه برای هر نمونه افزایش پیدا کرد.
این تغییرات نشاندهنده کاهش 36 درصدی در زمان تأخیر و کاهش 57 درصدی در هزینههای عملیاتی است.
مایکروسافت در این خصوص میگوید:
«… محصول ما بر پایه ارائه بهترین نتایج ساخته شده است و ما کیفیت را فدای سرعت نخواهیم کرد. فناوری TensorRT-LLM در اینجا نقش کلیدی ایفا میکند، با کاهش زمان پیشبینی مدل، تجربه کلی جستجو را سریعتر میکند، بدون اینکه کیفیت نتایج تحت تأثیر قرار گیرد.»
مزایای بهروزرسانی برای کاربران بینگ
این بهروزرسانی مزایای متعددی برای کاربران بینگ به همراه دارد:
- نتایج جستجوی سریعتر با استفاده از مدلهای بهینهشده و کاهش زمان پاسخگویی
- دقت بالاتر به لطف قابلیتهای پیشرفته مدلهای SLM که نتایجی دقیقتر و مرتبطتر ارائه میدهند
- کاهش هزینهها که به بینگ اجازه میدهد در نوآوریها و بهبودهای بیشتر سرمایهگذاری کند