t_wの輪郭

LLMLLaMA
『ollama/docs/api.md at main · ollama/ollama』curl http://localhost:11434/api/pull -d '{ "model": "llama3.2"}'『AMD Ryzen NPU support · Issue #5186 · ollama/ollama』あれsystemctl restart ollamaあれあれ『Xユーザーのからあげさん: 「神モデルによりOllama使ってローカルでTanuki-8Bがあっさり動きました。 RTX 3060で信じられない爆速!過去いろいろなローカルLLM試してきましたが、日本語では相当良いのでは? https://t.co/quUC37iAOb」 / X』

あれ

2025/1/6 14:08:00

compose.yml

version: "3.9"
services:
  web:
    build: .
    ports:
      - "3000:3000"
  ollama:
    ports:
      - "11434:11434"
    image: ollama/ollama
    volumes:
      - .:/code
      - volume01:/root/.ollama
volumes:
  volume01: {}

あれ

2024/10/13 14:52:00

Ollamacontinueつかって、ローカルのマシンで動くCodeGPTPlus/deepseek-coder-1.3b-typescriptにコード書かせてたら、こんなん失職やんとなった


M2 MacBookで動く程度の小規模なLLMが、使い物になってるってのが怖い。

まだ完全に置き換えられるレベルじゃないけど、あっという間に賢くなると思う。
指数関数的に増加するものがどれだけの速度で変化するかを我々は知識として知っている。