من اخیراً آزمایشی را به عنوان بخشی از یک پروژه شرکت انجام دادم – و من برای به اشتراک گذاشتن یافته های خود هیجان زده ام (و کمی ناامید شده ام). در حالی که مدتهاست که از مدل های OpenAI استفاده می کنم ، تصمیم گرفتم Deepseek (که این روزها در همه جا است) را آزمایش کنم تا ببینم آیا هزینه کم بسیار زیاد آن واقعاً به عملکرد عالی تبدیل می شود. آنچه من پیدا کردم یک تجارت واضح بین هزینه و تأخیر بود که هر توسعه دهنده باید در نظر بگیرد.
آزمایش من: تنظیم و اندازه گیری
برای این آزمایش ، من یک اسکریپت ساده را تنظیم کردم که با استفاده از همان منطق اساسی ، دو طرح را اجرا می کند. ورودی در آزمون من یک متن ثابت برای تجزیه و تحلیل بود و اسکریپت سپس دو درخواست جداگانه را اجرا کرد. من این اسکریپت را با استفاده از سه تنظیم مختلف اجرا کردم:
- مدل چت Deepseek در سکوی Nebius:
-
زمان پاسخ اندازه گیری شده: 6.95 ثانیه ، 11.8 ثانیه و 12.44 ثانیه
-
میانگین: تقریباً 10.4 ثانیه
-
- مدل چت Deepseek از طریق API اصلی:
-
زمان پاسخ اندازه گیری شده: 20.1 ثانیه ، 16.69 ثانیه و 22.62 ثانیه
-
میانگین: تقریباً 19.8 ثانیه
-
- Openai GPT – 4O:
- زمان پاسخ اندازه گیری شده: 4.62 ثانیه ، 4.19 ثانیه و 3.77 ثانیه
- میانگین: تقریباً 4.2 ثانیه
من با توجه به یادداشت ها در صفحه دوم در حالی که فیلمنامه در حال اجرا بود ، این زمان بندی ها را با دقت ضبط کردم. نتایج به وضوح نشان می دهد که در حالی که GPT – 4O است …