ChatGPT را کنار بگذارید: به جای آن یک LLM سریع را روی رایانه خود اجرا کنید

TLDR: به عنوان یک علاقه‌مند به منبع باز، از اینکه می‌توانیم چیزی به قدرتمندی Llama 3 را به صورت محلی اجرا کنیم و داده‌ها را کنترل می‌کنیم، شگفت‌زده هستم. اجازه دهید به شما نشان دهم چگونه.

مرحله 1: Docker Desktop را روی دستگاه خود نصب کنید (اگر قبلاً نصب نکرده اید)

https://www.docker.com/products/docker-desktop/

چرا از Docker استفاده کنیم؟ به جای اتلاف وقت برای نوشتن 3 مقاله جداگانه که به تفاوت‌های ظریف هر سیستم‌عامل مختلف (MacOS، Linux یا Windows) رسیدگی می‌کند، از یک منبع حقیقت (محیط جهانی) همانطور که در Dockerfile تعریف شده است استفاده می‌کنیم تا چیزها را در موقعیت مکانی و اجرا قرار دهیم.

^ این یک توضیح ساده است. وقتی پاسخ بهتری پیدا کردم ممکن است دوباره این را مرور کنم.

گام 2: در ترمینال خود، این دستور را بچسبانید و وارد کنید تا Olama بر روی سیستم شما نصب شود:

docker pull ollama/ollama

شما باید چیزی شبیه به این را بعد از آن ببینید

جدیدترین تصویر اولاما را بکشیدجدیدترین تصویر اولاما را بکشید

مرحله 3: اکنون که نصب شده است، اجازه دهید با وارد کردن این، آن را اجرا کنیم:

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama ظرف اوللاما را به صورت محلی اجرا کنیدظرف اوللاما را به صورت محلی اجرا کنیدرونق! می‌دانید که می‌توانید با یکی از باهوش‌ترین LLM‌های جهان به‌صورت OFFLINE در رایانه خود ارتباط برقرار کنید. به باشگاه خوش آمدی. شاید شما یک ورودی آموزنده تر از “هی!”

امتیاز جایزه!

اگر تا اینجا پیش رفته اید، اما احساس نارضایتی می کنید، احتمالاً حس شهودی این تجربه را هنگام گپ زدن با…