Paano mag-install at gumamit ng DeepSeek-R1 nang lokal sa iyong computer, gumagamit ka man ng Ubuntu o anumang iba pang system

  • Ang DeepSeek-R1 ay isang open-source na modelo na may mga advanced na kakayahan sa pangangatwiran.
  • Pinapasimple ng Ollama ang pag-install at pamamahala ng mga modelo ng AI nang lokal.
  • Nag-aalok ang ChatBoxAI ng isang graphical na interface upang makipag-ugnayan sa mga modelo tulad ng DeepSeek.
  • Ang modelo ay madaling maisama sa mga proyekto ng pag-unlad gamit ang Python.

DeepSeek-R1 sa Ubuntu

Patuloy na binabago ng artificial intelligence ang ating mundo, at ang mga opsyon para sa pagtatrabaho sa mga advanced na modelo ng wika ay lumalaki nang mabilis. Gayunpaman, hindi lahat ay kailangang kumonekta sa mga serbisyo ng cloud o umasa sa mga third party upang galugarin ang mga teknolohiyang ito. Ang isang kawili-wili at naa-access na alternatibo ay DeepSeek-R1, isang modelo ng AI na nagbibigay-daan sa mga user na patakbuhin ito nang lokal sa mga katamtamang computer. Sa artikulong ito, ipapaliwanag ko kung paano i-install ang DeepSeek at samantalahin nang husto ang mga kakayahan nito.

Ang DeepSeek-R1 ay isang open-source na modelo ng AI na namumukod-tangi para sa kahusayan nito at advanced na kakayahan sa pangangatwiran. Sa pamamagitan ng pagpapatakbo nito nang lokal, hindi ka lamang nakakatipid ng mga umuulit na gastos, ngunit pinoprotektahan mo rin ang iyong privacy at nakakakuha ng kakayahang umangkop upang maisama ito sa mga custom na proyekto. Bagama't nangangailangan ang ilang modelo ng malakas na hardware, nag-aalok ang DeepSeek-R1 ng mga bersyon na nakatutok para sa iba't ibang mapagkukunan, mula sa mga pangunahing computer hanggang sa mga advanced na workstation.

Ano ang DeepSeek at bakit ito ginagamit nang lokal?

Ang DeepSeek-R1 ay isang advanced na modelo ng wika na idinisenyo para sa mga kumplikadong gawain tulad ng lohikal na pangangatwiran, paglutas ng mga problema sa matematika at pagbuo ng code. Ang pangunahing bentahe nito ay ito ay open source, na nangangahulugan na maaari mong i-install at patakbuhin ito sa iyong sariling computer nang hindi umaasa sa mga panlabas na server.

Ang ilan sa mga kapansin-pansing tampok nito ay kinabibilangan ng:

  • Kakayahang umangkop: Maaari mong iakma ang modelo ayon sa iyong mga pangangailangan, mula sa mga magaan na bersyon hanggang sa mga advanced na configuration.
  • Pagkapribado: Ang lahat ng pagproseso ay ginagawa nang lokal, na iniiwasan ang mga alalahanin tungkol sa paglalantad ng sensitibong data. Ito marahil ang pinakamahalagang punto, dahil marami ang nag-aalala tungkol sa kung ano ang magagawa ng mga kumpanya sa aming data.
  • Nagse-save: Hindi mo na kailangang maglabas ng pera sa mga subscription o serbisyo sa cloud, na ginagawa itong isang abot-kayang opsyon para sa mga developer at negosyo.

Mga kinakailangan para sa pag-install

Bago simulan ang pag-install, siguraduhing sumunod ka sa mga sumusunod requisitos:

  • Isang computer na may Linux, macOS o Windows operating system (na may suporta para sa WSL2 sa huling kaso).
  • Isang minimum na GB RAM 8, kahit na ito ay inirerekomenda ng hindi bababa sa 16 GB para sa pinakamainam na pagganap.
  • Internet access upang i-download ang mga modelo sa simula.
  • Pangunahing kaalaman sa terminal o command line.

Bukod dito, kakailanganin mong mag-install ng isang tool na tinatawag na Ollama, na lokal na namamahala at nagpapatakbo ng mga modelo ng DeepSeek.

Pag-install ng Ollama

Ollama ay isang simpleng solusyon na nagbibigay-daan sa iyong mag-download at magpatakbo ng mga modelo ng wika tulad ng DeepSeek-R1. Upang i-install ito, sundin ang mga hakbang na ito:

  1. Sa Linux o macOS, buksan ang terminal at patakbuhin ang sumusunod na command para i-install ang Ollama — ang package kulutan Ito ay kinakailangan, malinaw naman -:
curl -fsSL https://ollama.com/install.sh | sh
  1. Sa mga Windows system, tiyaking pinagana mo muna ang WSL2 at pagkatapos ay sundin ang parehong mga hakbang sa terminal ng Ubuntu na iyong na-configure sa loob ng WSL.
  2. I-verify na ang Ollama ay na-install nang tama sa pamamagitan ng pagpapatakbo ollama --version. Kung nagbabalik ang command ng numero ng bersyon, handa ka nang sumulong.

DeepSeek-R1 Download

Sa naka-install at tumatakbo si Ollama (ollama serve sa terminal kung nabigo ang pag-download na ipinaliwanag namin sa ibang pagkakataon), maaari mo na ngayong i-download ang modelong DeepSeek na pinakaangkop sa iyong mga pangangailangan at hardware:

  • 1.5B na mga parameter: Tamang-tama para sa mga pangunahing computer. Ang modelong ito ay sumasakop sa humigit-kumulang 1.1 GB.
  • 7B na mga parameter: Inirerekomenda para sa kagamitan na may GPUs katamtaman-mataas. Sinasakop nito ang tungkol sa 4.7 GB.
  • 70B na mga parameter: Para sa mga kumplikadong gawain sa kagamitan na may mahusay na kakayahan ng memorya at malakas na GPU.

Upang i-download ang karaniwang modelong 7B, patakbuhin ang command na ito sa terminal:

Olama Run Deepseek-R1

Ang oras ng pag-download ay depende sa bilis ng iyong Internet at kakailanganin lamang sa unang pagkakataon na patakbuhin namin ang chatbot. Kapag nakumpleto na, ang modelo ay magiging handa nang gamitin mula sa command line o sa pamamagitan ng isang graphical na interface.

Paggamit ng DeepSeek na may graphical na interface

Bagama't maaari kang makipag-ugnayan sa DeepSeek nang direkta mula sa terminal, mas gusto ng maraming user ang isang graphical na interface para sa kaginhawahan. Sa kasong ito, maaari mong i-install ChatBoxAI, isang libreng application na magbibigay-daan sa iyong samantalahin ang DeepSeek mula sa biswal na anyo.

  • I-download at i-install ChatBoxAI mula sa opisyal na pahina nito.
  • Itakda ang app na gagamitin Ollama bilang supplier ng modelo:

Sa mga setting ng ChatBoxAI, piliin ang “Gamitin ang sarili kong API” at piliin ang modelo ng DeepSeek na na-download mo dati. Kung na-configure nang tama ang lahat, magagawa mong magsagawa ng mga query at gawain nang direkta mula sa graphical na interface.

Pagsasama ng DeepSeek sa mga proyekto

Kung ikaw ay isang developer, maaari mong isama ang DeepSeek sa iyong mga proyekto gamit ito API OpenAI compatible. Narito ang isang simpleng halimbawa gamit Sawa:

import openai client = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") response = client.chat.completions.create(model="deepseek-r1", messages=[{ "role": "user", "content": "Bumuo ng code sa Python para kalkulahin ang Fibonacci"}])

Magpapadala ang script na ito ng query sa lokal na modelo ng DeepSeek at ibabalik ang resulta sa iyong terminal o application.

Ang DeepSeek-R1 AI model ay kumakatawan sa isang mahusay na opsyon para sa mga naghahanap isang advanced at matipid na solusyon. Sa kadalian ng pag-access na ibinibigay ni Ollama, ang flexibility ng mga modelo nito, at ang kakayahang magsama sa mga custom na proyekto, ang DeepSeek ay nagbubukas ng mga bagong posibilidad para sa mga developer, mag-aaral, at mga eksperto sa AI. Sa pagtutok nito sa privacy at performance, ito ay isang tool na nararapat na tuklasin nang lubusan.


Iwanan ang iyong puna

Ang iyong email address ay hindi nai-publish. Mga kinakailangang patlang ay minarkahan ng *

*

*

  1. Responsable para sa data: Miguel Ángel Gatón
  2. Layunin ng data: Kontrolin ang SPAM, pamamahala ng komento.
  3. Legitimation: Ang iyong pahintulot
  4. Komunikasyon ng data: Ang data ay hindi maiparating sa mga third party maliban sa ligal na obligasyon.
  5. Imbakan ng data: Ang database na naka-host ng Occentus Networks (EU)
  6. Mga Karapatan: Sa anumang oras maaari mong limitahan, mabawi at tanggalin ang iyong impormasyon.