نصب و استفاده از Ollama: راهنمای راه‌اندازی LLM محلی (۲۰۲۵)

موضوعاتی که در این مقاله به آنها پرداخته خواهد شد، به شرح زیر است:

نصب و استفاده از Ollama اولین قدم برای ورود به دنیای اجرای محلی مدل‌های زبانی بزرگ (LLMs) است. سلام و درود به شما همراهان گرامی پشتوار سرور! این مقاله یک راهنمای راه‌اندازی Ollama به صورت جامع و قدم به قدم است که به شما کمک می‌کند این پلتفرم رایگان و محبوب را که مورد استقبال کارشناسان هوش مصنوعی قرار گرفته، روی سیستم خود مستقر کنید.

مقدمه: چرا نصب و استفاده از Ollama اهمیت دارد؟

پس از آنکه در مقاله‌ی قبلی به طور کامل بررسی کردیم که Ollama چیست و چگونه کار می‌کند، اکنون زمان آن رسیده که به صورت عملی وارد میدان شویم. در ادامه‌ی این آموزش، شما یاد می‌گیرید چگونه Ollama را نصب کرده و اولین مدل‌های خود را اجرا کنید تا کنترل کاملی بر پروژه‌های هوش مصنوعی خود داشته و از تمام مزایای آن بهره‌مند شوید.

Ollama چیست؟

همانطور که در مقاله جامع “Ollama چیست؟ راهنمای اجرای محلی LLM و کاربردهای آن” بررسی کردیم، Ollama یک پلتفرم رایگان و متن‌باز برای اجرای ساده مدل‌های زبانی بزرگ (LLMs) بر روی سیستم محلی شماست. این ابزار از LLMهای محبوبی چون GPT-3.5 (مدل‌های سازگار)، Mistral و Llama پشتیبانی می‌کند و با ارائه حریم خصوصی و کنترل بیشتر، ادغام قابلیت‌های هوش مصنوعی را در برنامه‌های محلی تسهیل می‌بخشد. آموزش کار با Ollama محلی با درک این مفاهیم آغاز می‌شود.

Ollama با رابط کاربرپسند، مدیریت و اجرای LLMهای محلی را تسهیل می‌کند.

Ollama با رابط کاربرپسند خود، مدیریت پیکربندی‌ها، مجموعه داده‌ها و وزن‌های مدل را ساده کرده و تنظیم مدل‌ها برای موارد استفاده خاص را آسان‌تر می‌کند.

پ.نآیا نیاز به سرور مجازی ایران دارید؟ لطفا بر روی لینک اون کلیک کنید! اگر نیاز به vps ایران با آی پی تمیز و بدون محدودیت دارید کلیک کنید. 

شما می‌توانید Ollama را بدون اتکا به APIهای شخص ثالث در برنامه‌های وب خود ادغام کنید، اما ابتدا باید آن را در محیط هاستینگ خود راه‌اندازی نمایید. اینجاست که اجرای LLM با Ollama روی سرور اهمیت پیدا می‌کند.

پیش‌نیازهای کلیدی راه‌اندازی Ollama

پیش از شروع نصب و استفاده از Ollama روی سرور خصوصی مجازی (VPS)، نیازمندی‌های زیر را در نظر بگیرید:

  • هاستینگ VPS: برای اجرای مؤثر Ollama، به یک VPS با حداقل ۱۶ گیگابایت RAM، بیش از ۱۲ گیگابایت فضای دیسک و ۴ تا ۸ هسته CPU نیاز دارید (منابع بیشتر برای مدل‌های بزرگتر). پشتوار سرور با ارائه پلن‌های VPS قدرتمند، گزینه‌ای ایده‌آل برای اجرای LLM با Ollama روی سرور شماست.
  • سیستم‌عامل: Ollama برای اجرا بر روی سیستم‌های لینوکس (مانند اوبونتو 22.04 LTS یا دبیان پایدار) طراحی شده است. سرورهای لینوکسی پشتوار سرور سازگاری کاملی با این ابزار دارند.
  • دسترسی و امتیازات: دسترسی ترمینال (SSH) به VPS و امتیازات root یا sudo در لینوکس برای نصب و پیکربندی Ollama ضروری است.
    اوبونتو 22.04 LTS، یک انتخاب پایدار برای اجرای Ollama و بهره‌مندی از راهنمای راه‌اندازی Ollama.

VPSهای بهینه پشتوار سرور برای Ollama!

به دنبال میزبانی قدرتمند برای Ollama هستید؟ پشتوار سرور با ارائه VPSهای پرسرعت و پایدار، زیرساخت لازم برای اجرای LLM با Ollama روی سرور را فراهم می‌کند. از پلن‌های متنوع ما دیدن فرمایید!

 

روش‌های نصب Ollama

شما می‌توانید Ollama را از طریق قالب‌های آماده هاستینگ یا به صورت دستی نصب کنید. در ادامه به هر دو روش اشاره خواهیم کرد، اما تمرکز ما بر آموزش کار با Ollama محلی از طریق نصب دستی خواهد بود.

نصب Ollama با استفاده از قالب آماده در هاستینگ

برخی ارائه‌دهندگان هاستینگ، نصب Ollama را با قالب‌های VPS از پیش پیکربندی شده ساده می‌کنند. این قالب‌ها معمولاً شامل Ollama، رابط کاربری وب (مانند Open WebUI) و برخی مدل‌های پایه هستند. این روش راهنمای راه‌اندازی Ollama را بسیار تسریع می‌بخشد.
مراحل کلی نصب خودکار با قالب :

  • ورود به پنل هاستینگ و انتخاب نمونه VPS.
  • انتخاب سیستم‌عامل با قالب Ollama.
  • اتمام نصب خودکار و تأیید از طریق SSH.
  • این روش ساده، شما را به سرعت برای اجرای LLM با Ollama روی سرور آماده می‌کند.
استفاده از قالب‌های هاستینگ برای نصب سریع و آسان Ollama.

آموزش کار با Ollama محلی: مراحل نصب دستی Ollama

گر از ارائه‌دهنده هاستینگی استفاده می‌کنید که قالب آماده Ollama ندارد، یا می‌خواهید کنترل بیشتری بر فرآیند نصب داشته باشید، نصب دستی بهترین گزینه است. این بخش از راهنمای راه‌اندازی Ollama به شما کمک می‌کند تا آموزش کار با Ollama محلی را از ابتدا شروع کنید.
۱. به‌روزرسانی بسته‌های سیستم (Update System Packages):
قبل از هر نصب جدید، به‌روزرسانی سیستم یک گام ضروری است. دستورهای زیر را در ترمینال سرور لینوکسی خود (مانند سرورهای VPS پشتوار سرور) اجرا کنید:

sudo apt update
sudo apt upgrade -y

این دستورها لیست بسته‌ها را به‌روز کرده و سپس تمام بسته‌های نصب شده را به آخرین نسخه ارتقا می‌دهند.

۲. نصب وابستگی‌های مورد نیاز (Install Required Dependencies):

Ollama برای اجرای صحیح به چند پیش‌نیاز نرم‌افزاری نیاز دارد:

  • Python 3 و Python 3 Pip (برای مدیریت بسته‌های پایتون).
  • Git (برای دانلود اسکریپت نصب در برخی موارد یا کار با مدل‌ها).

برای نصب این موارد، دستور زیر را اجرا کنید:

sudo apt install python3 python3-pip git -y
پس از نصب، می‌توانید با دستوراتی مانند python3 –version از صحت نصب آن‌ها اطمینان حاصل کنید.
نکته مهم برای کاربران GPU:

اگر سرور شما (مانند برخی پلن‌های قدرتمند پشتوار سرور که امکان افزودن GPU دارند) دارای کارت گرافیک NVIDIA است و قصد دارید از شتاب‌دهنده GPU برای اجرای LLM با Ollama روی سرور استفاده کنید، باید درایورهای NVIDIA و CUDA Toolkit مناسب را نیز نصب نمایید. مراحل دقیق نصب CUDA بسته به توزیع لینوکس و نسخه درایور متفاوت است و می‌توانید به مستندات رسمی NVIDIA مراجعه کنید.

برای عملکرد بهتر با GPU، نصب CUDA ضروری است.

۳. دانلود پکیج نصب Ollama (Download the Ollama Installation Package):

ساده‌ترین راه برای نصب Ollama، استفاده از اسکریپت نصب رسمی آن است. دستور زیر را در ترمینال خود اجرا کنید تا اسکریپت دانلود و اجرا شود:

curl -fsSL https://ollama.com/install.sh | sh

این دستور ابزار curl را برای دانلود اسکریپت از وب‌سایت رسمی Ollama به کار می‌گیرد و سپس آن را با sh اجرا می‌کند. این اسکریپت، Ollama را روی VPS شما نصب خواهد کرد.

۴. اجرا و پیکربندی اولیه Ollama (Run and Configure Ollama):

پس از نصب، معمولاً سرویس Ollama به طور خودکار اجرا نمی‌شود یا نیاز به تنظیمات اولیه برای اجرای خودکار در هنگام بوت دارد.

پیغام موفقیت‌آمیز اجرای سرویس Ollama در خط فرمان.

برای اجرای دستی سرویس Ollama (اگر به طور خودکار اجرا نشده):

ollama serve

این دستور سرویس Ollama را راه‌اندازی کرده و آن را روی VPS شما قابل دسترس می‌کند. برای بررسی وضعیت سرویس:

systemctl status ollama

برای اطمینان از اجرای خودکار Ollama در هنگام بوت شدن VPS، می‌توانید یک فایل سرویس systemd ایجاد کنید. دستور زیر را برای ایجاد و ویرایش فایل سرویس اجرا نمایید:

sudo nano /etc/systemd/system/ollama.service

سپس محتوای زیر را در آن وارد کنید:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=root # یا کاربر مناسب دیگر
Restart=always
RestartSec=3

[Install]
WantedBy=multi-user.target

پس از ایجاد فایل سرویس، آن را ذخیره کنید (Ctrl+O, Enter, Ctrl+X در nano).

پس از ذخیره فایل (Ctrl+O, Enter, Ctrl+X در nano)، دیمن systemd را مجدداً بارگیری کرده و سرویس Ollama را فعال و راه‌اندازی کنید:

sudo systemctl daemon-reload

سپس، برای اینکه سرویس Ollama در هنگام بوت شدن سیستم به طور خودکار فعال شود، از دستور enable استفاده می‌کنیم:

sudo systemctl enable ollama

 و در نهایت، سرویس Ollama را برای اولین بار (یا پس از تغییرات) با دستور زیر راه‌اندازی نمایید:

sudo systemctl start ollama

اکنون Ollama باید به طور خودکار در هنگام بوت اجرا شود.

۵. تأیید نصب (Verify the Installation):

در نهایت، نصب را با بررسی نسخه Ollama تأیید کنید:

ollama –version

این دستور شماره نسخه نرم‌افزار نصب شده Ollama را نمایش می‌دهد. نصب و استفاده از Ollama با این گام کامل می‌شود.

مدیریت نصب Ollama: کار با مدل‌ها از طریق CLI و GUI

استفاده و مدیریت Ollama بسیار ساده است. این پلتفرم یک رابط خط فرمان (CLI) و یک رابط کاربری گرافیکی (GUI) (از طریق ابزارهای شخص ثالث) برای تعامل با آن ارائه می‌دهد. شما می‌توانید Ollama را با هر یک از این رابط‌ها مدیریت کنید. CLI Ollama گزینه‌ها و کنترل‌های پیشرفته‌تری را ارائه می‌دهد. این به شما امکان می‌دهد تنظیمات را پیکربندی کنید، مدل‌ها را اجرا کرده و مدل‌های سفارشی ایجاد نمایید. از سوی دیگر، GUI گزینه کاربرپسندتری است. این یک نمایش بصری از مدل‌ها و پارامترهای آن‌ها را ارائه می‌دهد.
برای کشیدن (دانلود) یک مدل از کتابخانه Ollama از دستور زیر استفاده کنید:

ollama pull <model_name>

 به عنوان مثال، برای کشیدن مدل “llama2”:

ollama pull llama2

پس از دانلود مدل، می‌توانید با استفاده از دستور زیر یک جلسه چت با آن را شروع کنید:

ollama run <model_name>

 Ollama همچنین گزینه‌های پیکربندی زیادی برای تنظیم عملکرد، تغییر رفتار مدل و تغییر تنظیمات سرور ارائه می‌دهد. شما می‌توانید از طریق CLI یا GUI به این گزینه‌ها دسترسی پیدا کنید. آموزش کار با Ollama محلی شامل یادگیری این دستورات اساسی است.VPS برای Ollama از پشتوار سرور!
پشتوار سرور با ارائه VPSهای لینوکسی بهینه شده، بهترین محیط را برای اجرای LLM با Ollama روی سرور فراهم می‌کند. از پشتیبانی و عملکرد بی‌نظیر ما بهره‌مند شوید. [لینک به صفحه اصلی VPS پشتوار سرور]

موارد استفاده رایج Ollama پس از اجرای LLM با Ollama روی سرور

Ollama به دلیل سادگی و سهولت یکپارچه‌سازی، امکانات زیادی را برای توسعه‌دهندگان، پژوهشگران و علاقه‌مندان به AI باز می‌کند. در زیر برخی از رایج‌ترین موارد استفاده از Ollama آورده شده است:

  • ساخت چت‌بات‌های سفارشی و دستیاران مجازی: شما می‌توانید از Ollama برای ایجاد چت‌بات‌ها و دستیاران مجازی متناسب با نیازهای خاص خود بهره ببرید. به عنوان مثال، می‌توانید یک دستیار کدنویسی برای کمک به توسعه برنامه‌های موبایل و وب بسازید. همچنین می‌توانید یک همکار طوفان فکری برای پروژه‌های طراحی یا برای اجرای مدل‌های زبانی بزرگ در استراتژی و تولید محتوا ایجاد کنید. این یکی از اصلی‌ترین دلایل یادگیری نصب و استفاده از Ollama است.
با Ollama، چت‌بات‌ها و دستیاران مجازی متناسب با نیاز خود بسازید.
  • تنظیم دقیق (Fine-tuning) مدل‌های متن‌باز: Ollama به شما امکان می‌دهد LLMهای موجود را بر روی داده‌های آموزشی خود بهبود بخشید تا عملکرد آن‌ها را در وظایف خاص بهبود دهید. این می‌تواند در خلاصه‌سازی متن، ترجمه و پاسخ به سوالات کمک کند.
  • اجرای محلی مدل‌های زبانی بزرگ: Ollama اجرای LLMها را به صورت محلی بر روی ماشین شما ممکن می‌سازد. این وابستگی‌های ابری را از بین برده و هزینه‌ها را کاهش می‌دهد. این برنامه به صنایعی که به محرمانگی داده‌ها نیاز دارند، مانند بهداشت و درمان و امور مالی، سود می‌رساند.

نتیجه‌گیری: تسلط بر نصب و استفاده از Ollama برای پروژه‌های AI شما

Ollama یک پلتفرم قدرتمند است که اجرای و بهبود مدل‌های زبانی بزرگ را به صورت محلی آسان می‌کند. با رابط کاربرپسند و پشتیبانی از طیف وسیعی از LLMها، Ollama فرصت‌های زیادی را برای توسعه‌دهندگان، پژوهشگران و علاقه‌مندان به AI فراهم می‌کند. راهنمای راه‌اندازی Ollama که در این مقاله ارائه شد، به شما کمک می‌کند تا اولین گام‌ها را برای اجرای LLM با Ollama روی سرور خود بردارید.

چه در حال ساخت چت‌بات‌های سفارشی باشید، چه یک LLM محلی را برای وظایف خاص تنظیم دقیق کنید، یا امکانات LLMها را در استراتژی و تولید محتوا کاوش نمایید، Ollama ابزارهایی را که برای شروع نیاز دارید، در اختیار شما قرار می‌دهد. تسلط بر نصب و استفاده از Ollama و آموزش کار با Ollama محلی می‌تواند به شما در پیشبرد پروژه‌های هوش مصنوعی و بهره‌مندی از مزایای کنترل محلی و حریم خصوصی کمک کند.

تیم پشتوار سرور امیدوار است این راهنمای گام به گام برای شما مفید بوده باشد. اگر برای میزبانی Ollama و مدل‌های خود به سرورهای قدرتمند و قابل اعتماد نیاز دارید، پلن‌های VPS ما را بررسی کنید.

حالا نوبت شماست!

آیا تا به حال Ollama را روی سرور خود نصب کرده‌اید؟ چه مدل‌هایی را با آن اجرا کرده‌اید و چه نتایجی به دست آورده‌اید؟ یا شاید سوالی در مورد بهینه‌سازی عملکرد Ollama برای پروژه‌های خاص خود دارید؟

تجربیات، سوالات و نظرات خود را در بخش دیدگاه‌ها با ما به اشتراک بگذارید. ما مشتاق شنیدن از شما و تبادل نظر در مورد این فناوری هیجان‌انگیز هستیم.

 

مطالب مرتبط: