Miksi valita Ollama?

Ollama on erinomainen valinta kehittäjille, jotka priorisoivat yksityisyyttä ja haluavat täyden hallinnan koodin analyysistään. Ollaman kanssa kaikki käsittely tapahtuu paikallisella koneellasi, varmistaen, että koodisi ei koskaan jätä tietokonettasi. Tämä on täydellinen herkille projekteille, ilmakytketyille ympäristöille tai kehittäjille, jotka yksinkertaisesti suosivat paikallista käsittelyä.

Ollaman asennus

Ollama on saatavilla Windowsille, macOS:lle ja Linuxille. Asennus on suoraviivaista:

  1. Vieraile ollama.com ja lataa asennusohjelma alustallesi
  2. Aja asennusohjelma ja seuraa asennusohjetta
  3. Ollama käynnistyy automaattisesti ja toimii palveluna

Kun asennettu, Ollama toimii taustalla ja on valmis käyttöön. Voit varmistaa, että se toimii avaamalla terminaalin ja ajamalla ollama --version.

Mallien asennus

Ollama käyttää malleja, jotka lataat ja ajat paikallisesti. Suositut mallit koodin analyysiin sisältävät:

  • llama3: Yleiskäyttöinen malli, hyvä tasapaino laadun ja nopeuden välillä
  • qwen2.5-coder: Erikoistunut koodiin, erinomainen koodin tarkistukseen
  • mistral: Nopea ja tehokas, hyvä nopeaan analyysiin
  • codellama: Koodi-spesifinen malli Metalta

Asentaaksesi mallin, käytä Ollama CLI:tä:

ollama pull llama3
ollama pull qwen2.5-coder

Voit selata saatavilla olevia malleja osoitteessa ollama.com/search löytääksesi tarpeisiisi sopivia malleja.

AI Diff Reviewin määrittäminen

Kun Ollama on asennettu ja sinulla on malleja saatavilla, AI Diff Reviewin määrittäminen on yksinkertaista:

  1. Avaa Asetukset → Työkalut → AI Diff Review
  2. Valitse "Ollama (paikallinen)" palveluntarjoajaksesi
  3. Syötä Ollama-isäntä (oletus: http://localhost:11434)
  4. Klikkaa "Päivitä" ladataksesi saatavilla olevat mallit
  5. Valitse haluamasi malli avattavasta valikosta

Laajennus testaa yhteyden ja varmistaa, että malli on saatavilla. Kun määritetty, olet valmis aloittamaan Ollaman käytön koodin analyysiin.

Ollaman käyttäminen analyysiin

Ollaman käyttäminen toimii täsmälleen kuten pilvipalveluntarjoajat—aja vain analyysi minkä tahansa normaalin sisäänmenopisteen kautta (Työkalut-valikko, kontekstivalikot, VCS-loki). Analyysi tapahtuu paikallisesti, joten saatat huomata:

  • Hieman hitaampaa käsittelyä (riippuen laitteistostasi)
  • Ei internet-yhteyttä vaadita
  • Ei API-kustannuksia
  • Täydellinen yksityisyys

Laitteistovaatimukset

Ollaman suorituskyky riippuu laitteistostasi:

Vain CPU

Ollama toimii vain CPU-järjestelmissä, mutta analyysi on hitaampi. Odota 30-60 sekuntia tyypillisille analyyseille. Tämä on hyvä satunnaiseen käyttöön, mutta voi olla liian hidas usein tapahtuvalle analyysille.

GPU-kiihdytys

Jos sinulla on yhteensopiva GPU (NVIDIA CUDA:lla tai Apple Silicon), Ollama voi käyttää sitä paljon nopeampaan käsittelyyn. GPU-kiihdytys voi tehdä analyysistä 5-10x nopeamman, tehden siitä käytännöllisen säännölliseen käyttöön.

Muisti

Mallit vaativat merkittävää RAM-muistia. Pienemmät mallit (7B parametria) tarvitsevat ~8GB RAM-muistia, kun taas suuremmat mallit (13B+) voivat tarvita 16GB tai enemmän. Tarkista mallin vaatimukset ennen asennusta.

Mallin valintavinkit

Koodin tarkistukseen

Koodi-spesifiset mallit kuten qwen2.5-coder tai codellama tarjoavat yleensä paremman analyysin koodin tarkistustehtäviin kuin yleiskäyttöiset mallit.

Nopeuteen

Pienemmät mallit kuten mistral tai llama3:8b ovat nopeampia, mutta voivat tarjota vähemmän yksityiskohtaista analyysiä. Hyvä nopeisiin tarkistuksiin.

Laatuun

Suuremmat mallit kuten llama3:70b tarjoavat paremman analyysin, mutta vaativat enemmän resursseja ja ovat hitaampia. Käytä tärkeille tai monimutkaisille muutoksille.

Suorituskyvyn optimointi

Käytä GPU:ta kun saatavilla

Jos sinulla on yhteensopiva GPU, Ollama käyttää sitä automaattisesti. Varmista, että sinulla on asianmukaiset ajurit asennettuna (NVIDIA-ajurit CUDA:lle tai käytä Applen Metal:ia macOS:llä).

Valitse sopiva mallin koko

Älä käytä 70B-mallia, jos 7B-malli riittää. Pienemmät mallit ovat nopeampia ja käyttävät vähemmän muistia tarjoten silti hyvää analyysiä useimpiin tapauksiin.

Seuraa resurssien käyttöä

Pidä silmällä CPU-, GPU- ja muistin käyttöä. Jos Ollama kuluttaa liikaa resursseja, harkitse pienemmän mallin käyttöä tai säädä, milloin suoritat analyysejä.

Mallien päivittäminen

Ollama-mallit voidaan päivittää hankkimalla uusin versio:

ollama pull llama3

Tämä lataa uusimman version, jos saatavilla. Laajennus jatkaa valitsemasi mallin nimen käyttöä, joten päivitykset ovat saumattomia.

Vianetsintä

Yhteysongelmat

Jos laajennus ei voi yhdistää Ollamaan:

  • Varmista, että Ollama toimii (ollama list pitäisi toimia)
  • Tarkista isäntäosoite (oletus on http://localhost:11434)
  • Varmista, ettei palomuuri estä yhteyttä

Mallia ei löydy

Jos mallisi ei näy listassa:

  • Varmista, että malli on asennettu (ollama list)
  • Klikkaa "Päivitä" laajennuksen asetuksissa
  • Yritä hakea malli uudelleen tarvittaessa

Hidas suorituskyky

Jos analyysi on liian hidas:

  • Kokeile pienempää mallia
  • Ota GPU-kiihdytys käyttöön, jos saatavilla
  • Sulje muut resurssi-intensiiviset sovellukset
  • Harkitse pilvipalveluntarjoajien käyttöä aikaherkille analyyseille

Parhaat käytännöt

Aloita pienellä mallilla

Aloita 7B- tai 8B-mallilla saadaksesi käsityksen suorituskyvystä. Voit aina vaihtaa suurempiin malleihin, jos tarvitset parempaa analyysin laatua.

Pidä mallit ajan tasalla

Päivitä mallejasi säännöllisesti saadaksesi parannuksia ja virheenkorjauksia. Uudemmat versiot tarjoavat usein paremman analyysin.

Käytä sopivia malleja tehtäviin

Käytä koodi-spesifisiä malleja koodin tarkistukseen, mutta älä epäröi kokeilla yleiskäyttöisiä malleja, jos ne toimivat paremmin erityisessä käyttötapauksessasi.

Seuraa resurssien käyttöä

Pidä silmällä järjestelmän resursseja. Jos Ollama vaikuttaa kehitystyönkulkuprosessiisi, harkitse sen valikoivaa käyttöä tai vaihtamista pilvipalveluntarjoajiin joihinkin analyyseihin.

Yhteenveto

Ollama tarjoaa erinomaisen vaihtoehdon paikalliseen koodin tarkistukseen AI Diff Reviewin kanssa. Suorittamalla analyysin kokonaan koneellasi saat täydellisen yksityisyyden ja hallinnan välttäen samalla API-kustannukset.

Vaikka paikallinen käsittely voi olla hitaampaa kuin pilvipalveluntarjoajat, yksityisyys- ja kustannushyödyt tekevät siitä houkuttelevan vaihtoehdon monille kehittäjille. Sopivalla laitteistolla ja mallin valinnalla Ollama voi tarjota nopeaa, korkealaatuista analyysiä, joka pitää koodisi täysin yksityisenä.

Oli kyseessä sitten herkkä koodi, paikallisen käsittelyn suosiminen tai API-kustannusten välttäminen, Ollama on tehokas työkalu, joka tekee paikallisesta tekoälykoodin tarkistuksesta käytännöllisen ja saavutettavan.

Valmis kokeilemaan paikallista analyysiä? Asenna AI Diff Review ja aseta Ollama yksityisyys-ensin koodin tarkistukseen.