فرض کنید یک یک هلدینگ صنعتی میخواهد از مدلهای زبانی هوش مصنوعی برای کارهایی مثل تولید متن، تحلیل مکاتبات یا جستوجوی هوشمند در اسناد داخلی استفاده کند؛ اما با دو چالش روبهروست:
۱) نمیداند
کدام LLM (مثلاً از بین چند ارائهدهنده مختلف) برای نیازش مناسبتر است؛
۲) نمیخواهد
دادههای محرمانهاش به سرورهای خارج از سازمان ارسال شود.
در این شرایط، بهجای اینکه مستقیماً به یک سرویس خاص متصل شود، از
Dargah.ai استفاده میکند. درگاه بهگونهای طراحی میشود که از یکسو امکان اتصال به
چندین مدل زبانی مختلف را بهصورت همزمان فراهم میکند و هزینه و کارایی هرکدام را پایش میکند؛ و از سوی دیگر میتواند طوری تنظیم شود که
دادههای اصلی سازمان داخل زیرساخت خودش باقی بماند. به این ترتیب، سازمان میتواند بدون قفل شدن روی یک فروشنده خاص، در عمل ببیند کدام مدل برای سناریوهای مختلفش بهتر است، هزینه مصرف هر مدل را کنترل کند، و در عین حال مطمئن باشد که
کنترل دادهها و حریم خصوصی در داخل سازمان حفظ میشود؛ یعنی استفاده از LLMها برایش به اندازه «فراخوانی یک سرویس داخلی» ساده و قابل مدیریت خواهد بود.