نصب و استفاده از Ollama: راهنمای راهاندازی LLM محلی (۲۰۲۵)
موضوعاتی که در این مقاله به آنها پرداخته خواهد شد، به شرح زیر است:
- مقدمه: چرا نصب و استفاده از Ollama اهمیت دارد؟
- Ollama چیست؟ (مروری کوتاه)
- پیشنیازهای کلیدی راهاندازی Ollama
- روشهای نصب Ollama
- اجرا و پیکربندی اولیه Ollama
- مدیریت نصب Ollama
- موارد استفاده رایج Ollama
- نتیجهگیری: تسلط بر Ollama
نصب و استفاده از Ollama اولین قدم برای ورود به دنیای اجرای محلی مدلهای زبانی بزرگ (LLMs) است. سلام و درود به شما همراهان گرامی پشتوار سرور! این مقاله یک راهنمای راهاندازی Ollama به صورت جامع و قدم به قدم است که به شما کمک میکند این پلتفرم رایگان و محبوب را که مورد استقبال کارشناسان هوش مصنوعی قرار گرفته، روی سیستم خود مستقر کنید.
مقدمه: چرا نصب و استفاده از Ollama اهمیت دارد؟
پس از آنکه در مقالهی قبلی به طور کامل بررسی کردیم که Ollama چیست و چگونه کار میکند، اکنون زمان آن رسیده که به صورت عملی وارد میدان شویم. در ادامهی این آموزش، شما یاد میگیرید چگونه Ollama را نصب کرده و اولین مدلهای خود را اجرا کنید تا کنترل کاملی بر پروژههای هوش مصنوعی خود داشته و از تمام مزایای آن بهرهمند شوید.
Ollama چیست؟
همانطور که در مقاله جامع “Ollama چیست؟ راهنمای اجرای محلی LLM و کاربردهای آن” بررسی کردیم، Ollama یک پلتفرم رایگان و متنباز برای اجرای ساده مدلهای زبانی بزرگ (LLMs) بر روی سیستم محلی شماست. این ابزار از LLMهای محبوبی چون GPT-3.5 (مدلهای سازگار)، Mistral و Llama پشتیبانی میکند و با ارائه حریم خصوصی و کنترل بیشتر، ادغام قابلیتهای هوش مصنوعی را در برنامههای محلی تسهیل میبخشد. آموزش کار با Ollama محلی با درک این مفاهیم آغاز میشود.
Ollama با رابط کاربرپسند خود، مدیریت پیکربندیها، مجموعه دادهها و وزنهای مدل را ساده کرده و تنظیم مدلها برای موارد استفاده خاص را آسانتر میکند.
پ.نآیا نیاز به سرور مجازی ایران دارید؟ لطفا بر روی لینک اون کلیک کنید! اگر نیاز به vps ایران با آی پی تمیز و بدون محدودیت دارید کلیک کنید.
شما میتوانید Ollama را بدون اتکا به APIهای شخص ثالث در برنامههای وب خود ادغام کنید، اما ابتدا باید آن را در محیط هاستینگ خود راهاندازی نمایید. اینجاست که اجرای LLM با Ollama روی سرور اهمیت پیدا میکند.
پیشنیازهای کلیدی راهاندازی Ollama
پیش از شروع نصب و استفاده از Ollama روی سرور خصوصی مجازی (VPS)، نیازمندیهای زیر را در نظر بگیرید:
- هاستینگ VPS: برای اجرای مؤثر Ollama، به یک VPS با حداقل ۱۶ گیگابایت RAM، بیش از ۱۲ گیگابایت فضای دیسک و ۴ تا ۸ هسته CPU نیاز دارید (منابع بیشتر برای مدلهای بزرگتر). پشتوار سرور با ارائه پلنهای VPS قدرتمند، گزینهای ایدهآل برای اجرای LLM با Ollama روی سرور شماست.
- سیستمعامل: Ollama برای اجرا بر روی سیستمهای لینوکس (مانند اوبونتو 22.04 LTS یا دبیان پایدار) طراحی شده است. سرورهای لینوکسی پشتوار سرور سازگاری کاملی با این ابزار دارند.
- دسترسی و امتیازات: دسترسی ترمینال (SSH) به VPS و امتیازات root یا sudo در لینوکس برای نصب و پیکربندی Ollama ضروری است.
اوبونتو 22.04 LTS، یک انتخاب پایدار برای اجرای Ollama و بهرهمندی از راهنمای راهاندازی Ollama.
VPSهای بهینه پشتوار سرور برای Ollama!
به دنبال میزبانی قدرتمند برای Ollama هستید؟ پشتوار سرور با ارائه VPSهای پرسرعت و پایدار، زیرساخت لازم برای اجرای LLM با Ollama روی سرور را فراهم میکند. از پلنهای متنوع ما دیدن فرمایید!
روشهای نصب Ollama
شما میتوانید Ollama را از طریق قالبهای آماده هاستینگ یا به صورت دستی نصب کنید. در ادامه به هر دو روش اشاره خواهیم کرد، اما تمرکز ما بر آموزش کار با Ollama محلی از طریق نصب دستی خواهد بود.
نصب Ollama با استفاده از قالب آماده در هاستینگ
برخی ارائهدهندگان هاستینگ، نصب Ollama را با قالبهای VPS از پیش پیکربندی شده ساده میکنند. این قالبها معمولاً شامل Ollama، رابط کاربری وب (مانند Open WebUI) و برخی مدلهای پایه هستند. این روش راهنمای راهاندازی Ollama را بسیار تسریع میبخشد.
مراحل کلی نصب خودکار با قالب :
- ورود به پنل هاستینگ و انتخاب نمونه VPS.
- انتخاب سیستمعامل با قالب Ollama.
- اتمام نصب خودکار و تأیید از طریق SSH.
- این روش ساده، شما را به سرعت برای اجرای LLM با Ollama روی سرور آماده میکند.
آموزش کار با Ollama محلی: مراحل نصب دستی Ollama
گر از ارائهدهنده هاستینگی استفاده میکنید که قالب آماده Ollama ندارد، یا میخواهید کنترل بیشتری بر فرآیند نصب داشته باشید، نصب دستی بهترین گزینه است. این بخش از راهنمای راهاندازی Ollama به شما کمک میکند تا آموزش کار با Ollama محلی را از ابتدا شروع کنید.
۱. بهروزرسانی بستههای سیستم (Update System Packages):
قبل از هر نصب جدید، بهروزرسانی سیستم یک گام ضروری است. دستورهای زیر را در ترمینال سرور لینوکسی خود (مانند سرورهای VPS پشتوار سرور) اجرا کنید:
sudo apt update
sudo apt upgrade -y
این دستورها لیست بستهها را بهروز کرده و سپس تمام بستههای نصب شده را به آخرین نسخه ارتقا میدهند.
۲. نصب وابستگیهای مورد نیاز (Install Required Dependencies):
Ollama برای اجرای صحیح به چند پیشنیاز نرمافزاری نیاز دارد:
- Python 3 و Python 3 Pip (برای مدیریت بستههای پایتون).
- Git (برای دانلود اسکریپت نصب در برخی موارد یا کار با مدلها).
برای نصب این موارد، دستور زیر را اجرا کنید:
sudo apt install python3 python3-pip git -y
پس از نصب، میتوانید با دستوراتی مانند python3 –version از صحت نصب آنها اطمینان حاصل کنید.
نکته مهم برای کاربران GPU:
اگر سرور شما (مانند برخی پلنهای قدرتمند پشتوار سرور که امکان افزودن GPU دارند) دارای کارت گرافیک NVIDIA است و قصد دارید از شتابدهنده GPU برای اجرای LLM با Ollama روی سرور استفاده کنید، باید درایورهای NVIDIA و CUDA Toolkit مناسب را نیز نصب نمایید. مراحل دقیق نصب CUDA بسته به توزیع لینوکس و نسخه درایور متفاوت است و میتوانید به مستندات رسمی NVIDIA مراجعه کنید.
۳. دانلود پکیج نصب Ollama (Download the Ollama Installation Package):
سادهترین راه برای نصب Ollama، استفاده از اسکریپت نصب رسمی آن است. دستور زیر را در ترمینال خود اجرا کنید تا اسکریپت دانلود و اجرا شود:
curl -fsSL https://ollama.com/install.sh | sh
این دستور ابزار curl را برای دانلود اسکریپت از وبسایت رسمی Ollama به کار میگیرد و سپس آن را با sh اجرا میکند. این اسکریپت، Ollama را روی VPS شما نصب خواهد کرد.
۴. اجرا و پیکربندی اولیه Ollama (Run and Configure Ollama):
پس از نصب، معمولاً سرویس Ollama به طور خودکار اجرا نمیشود یا نیاز به تنظیمات اولیه برای اجرای خودکار در هنگام بوت دارد.
برای اجرای دستی سرویس Ollama (اگر به طور خودکار اجرا نشده):
ollama serve
این دستور سرویس Ollama را راهاندازی کرده و آن را روی VPS شما قابل دسترس میکند. برای بررسی وضعیت سرویس:
systemctl status ollama
برای اطمینان از اجرای خودکار Ollama در هنگام بوت شدن VPS، میتوانید یک فایل سرویس systemd ایجاد کنید. دستور زیر را برای ایجاد و ویرایش فایل سرویس اجرا نمایید:
sudo nano /etc/systemd/system/ollama.service
سپس محتوای زیر را در آن وارد کنید:
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=root # یا کاربر مناسب دیگر
Restart=always
RestartSec=3
[Install]
WantedBy=multi-user.target
پس از ذخیره فایل (Ctrl+O, Enter, Ctrl+X در nano)، دیمن systemd را مجدداً بارگیری کرده و سرویس Ollama را فعال و راهاندازی کنید:
sudo systemctl daemon-reload
سپس، برای اینکه سرویس Ollama در هنگام بوت شدن سیستم به طور خودکار فعال شود، از دستور enable استفاده میکنیم:
sudo systemctl enable ollama
و در نهایت، سرویس Ollama را برای اولین بار (یا پس از تغییرات) با دستور زیر راهاندازی نمایید:
sudo systemctl start ollama
اکنون Ollama باید به طور خودکار در هنگام بوت اجرا شود.
۵. تأیید نصب (Verify the Installation):
در نهایت، نصب را با بررسی نسخه Ollama تأیید کنید:
ollama –version
این دستور شماره نسخه نرمافزار نصب شده Ollama را نمایش میدهد. نصب و استفاده از Ollama با این گام کامل میشود.
مدیریت نصب Ollama: کار با مدلها از طریق CLI و GUI
استفاده و مدیریت Ollama بسیار ساده است. این پلتفرم یک رابط خط فرمان (CLI) و یک رابط کاربری گرافیکی (GUI) (از طریق ابزارهای شخص ثالث) برای تعامل با آن ارائه میدهد. شما میتوانید Ollama را با هر یک از این رابطها مدیریت کنید. CLI Ollama گزینهها و کنترلهای پیشرفتهتری را ارائه میدهد. این به شما امکان میدهد تنظیمات را پیکربندی کنید، مدلها را اجرا کرده و مدلهای سفارشی ایجاد نمایید. از سوی دیگر، GUI گزینه کاربرپسندتری است. این یک نمایش بصری از مدلها و پارامترهای آنها را ارائه میدهد.
برای کشیدن (دانلود) یک مدل از کتابخانه Ollama از دستور زیر استفاده کنید:
ollama pull <model_name>
به عنوان مثال، برای کشیدن مدل “llama2”:
ollama pull llama2
پس از دانلود مدل، میتوانید با استفاده از دستور زیر یک جلسه چت با آن را شروع کنید:
ollama run <model_name>
Ollama همچنین گزینههای پیکربندی زیادی برای تنظیم عملکرد، تغییر رفتار مدل و تغییر تنظیمات سرور ارائه میدهد. شما میتوانید از طریق CLI یا GUI به این گزینهها دسترسی پیدا کنید. آموزش کار با Ollama محلی شامل یادگیری این دستورات اساسی است.VPS برای Ollama از پشتوار سرور!
پشتوار سرور با ارائه VPSهای لینوکسی بهینه شده، بهترین محیط را برای اجرای LLM با Ollama روی سرور فراهم میکند. از پشتیبانی و عملکرد بینظیر ما بهرهمند شوید. [لینک به صفحه اصلی VPS پشتوار سرور]
موارد استفاده رایج Ollama پس از اجرای LLM با Ollama روی سرور
Ollama به دلیل سادگی و سهولت یکپارچهسازی، امکانات زیادی را برای توسعهدهندگان، پژوهشگران و علاقهمندان به AI باز میکند. در زیر برخی از رایجترین موارد استفاده از Ollama آورده شده است:
- ساخت چتباتهای سفارشی و دستیاران مجازی: شما میتوانید از Ollama برای ایجاد چتباتها و دستیاران مجازی متناسب با نیازهای خاص خود بهره ببرید. به عنوان مثال، میتوانید یک دستیار کدنویسی برای کمک به توسعه برنامههای موبایل و وب بسازید. همچنین میتوانید یک همکار طوفان فکری برای پروژههای طراحی یا برای اجرای مدلهای زبانی بزرگ در استراتژی و تولید محتوا ایجاد کنید. این یکی از اصلیترین دلایل یادگیری نصب و استفاده از Ollama است.
- تنظیم دقیق (Fine-tuning) مدلهای متنباز: Ollama به شما امکان میدهد LLMهای موجود را بر روی دادههای آموزشی خود بهبود بخشید تا عملکرد آنها را در وظایف خاص بهبود دهید. این میتواند در خلاصهسازی متن، ترجمه و پاسخ به سوالات کمک کند.
- اجرای محلی مدلهای زبانی بزرگ: Ollama اجرای LLMها را به صورت محلی بر روی ماشین شما ممکن میسازد. این وابستگیهای ابری را از بین برده و هزینهها را کاهش میدهد. این برنامه به صنایعی که به محرمانگی دادهها نیاز دارند، مانند بهداشت و درمان و امور مالی، سود میرساند.
نتیجهگیری: تسلط بر نصب و استفاده از Ollama برای پروژههای AI شما
Ollama یک پلتفرم قدرتمند است که اجرای و بهبود مدلهای زبانی بزرگ را به صورت محلی آسان میکند. با رابط کاربرپسند و پشتیبانی از طیف وسیعی از LLMها، Ollama فرصتهای زیادی را برای توسعهدهندگان، پژوهشگران و علاقهمندان به AI فراهم میکند. راهنمای راهاندازی Ollama که در این مقاله ارائه شد، به شما کمک میکند تا اولین گامها را برای اجرای LLM با Ollama روی سرور خود بردارید.
چه در حال ساخت چتباتهای سفارشی باشید، چه یک LLM محلی را برای وظایف خاص تنظیم دقیق کنید، یا امکانات LLMها را در استراتژی و تولید محتوا کاوش نمایید، Ollama ابزارهایی را که برای شروع نیاز دارید، در اختیار شما قرار میدهد. تسلط بر نصب و استفاده از Ollama و آموزش کار با Ollama محلی میتواند به شما در پیشبرد پروژههای هوش مصنوعی و بهرهمندی از مزایای کنترل محلی و حریم خصوصی کمک کند.
تیم پشتوار سرور امیدوار است این راهنمای گام به گام برای شما مفید بوده باشد. اگر برای میزبانی Ollama و مدلهای خود به سرورهای قدرتمند و قابل اعتماد نیاز دارید، پلنهای VPS ما را بررسی کنید.
حالا نوبت شماست!
آیا تا به حال Ollama را روی سرور خود نصب کردهاید؟ چه مدلهایی را با آن اجرا کردهاید و چه نتایجی به دست آوردهاید؟ یا شاید سوالی در مورد بهینهسازی عملکرد Ollama برای پروژههای خاص خود دارید؟
تجربیات، سوالات و نظرات خود را در بخش دیدگاهها با ما به اشتراک بگذارید. ما مشتاق شنیدن از شما و تبادل نظر در مورد این فناوری هیجانانگیز هستیم.