sueden.social ist einer von vielen unabhängigen Mastodon-Servern, mit dem du dich im Fediverse beteiligen kannst.
Eine Community für alle, die sich dem Süden hingezogen fühlen. Wir können alles außer Hochdeutsch.

Serverstatistik:

1,8 Tsd.
aktive Profile

#ollama

11 Beiträge11 Beteiligte0 Beiträge heute
Antwortete im Thread

@ankoeln @muellertadzio Ein mglw. relevanter LLM-Skill mag das selber-Hosten auf eigener Hardware sein. Geht auch für Schönschreibtools.

Dabei helfe ich im Sinne der von Herrn Matzat geforderten "Auseinandersetzung mit der Technologie" gerne, denn mit dem Punkt [wir sollten] "zugewandt, freundlich, hilfsbereit und geduldig agieren" hat er natürlich Recht.

Antwortete Christian

@christian Ich habe mit einem Google Coral für angefangen, weil das wesentlich energieeffizienter war als auf CPU.
Dann läuft noch ein größeres Modell für object detection im , auf CPU, ist schnell genug und nicht dauerhaft an.
Seit kurzem habe ich eine GTX 1050ti 4GB aufm Host (proxmox), die im docker verfügbar ist. Tut mit und fürs transcoden. Ist aber für größere Modelle nix, überlege auf irgendwas 12Gb+ VRAM zu gehen.
1/x

Hab entdeckt. Scheint ähnlich wie zu sein. Letzteres hat wohl Stärken bei OCR. Ersteres bei der Zuordnung von Tags und Titel. OCR nutze ich nicht.
Ich hab wegen des Ressourcenverbrauchs in den Ruhestand geschickt. Ich fand dafür . Dort kann man in der EU gehostete Modelle nutzen, womit die dsgvo greift.
Allerdings bekomme ich es nicht konfiguriert. 🫩 Egal welche Kombination aus BaseURL und Modell ich nehme. Immer kommt 404 beim Speichern der Config.

Antwortete im Thread

@rena2019 man sollte schauen, dass auch wirklich auf der GPU läuft. Auf meinem privaten Gerät musste ich feststellen, dass es die CPU benutzt, obwohl meine Radeon-Karte offiziell supportet wird. Vielleicht mal die Treiber updaten aber eigentlich will ich lieber bei der Version bleiben, die der HWE-Stack aus den Ubuntu-Repos mitbringt.

lokal KI ausprobieren? Ganz einfach. Du brauchst lediglich unter Linux die Software UV, Ollama und dann führst du folgende Shellbefehle aus

OLLAMA_HOST=0.0.0.0 ollama serve
DATA_DIR=~/.open-webui uvx --python 3.11 open-webui@latest serve

Unter localhost:8080 hast du dann openwebui.

#ai#chat#openwebui

Quick question to those who use a local Ollama install: is there a noticeable performance difference between a normal install through the package manager and a docker install of ollama. The Manjaro packages are a bit out of daten (Ollama is moving quite fast in the last two months) an dont work with the lates qwen3-vl.
@homelab

Also mit dem letzten Update ist auf meiner CPU richtig, richtig langsam geworden.

Ich probiere daher gerade mal LM Studio aus. Dort rennen meine lokalen LLMs wieder! Konnte sie gerade mit einem kleinen Python Skript aus Ollama importieren und musste sie nicht erneut herunterladen.

z3h.de/gx

GistExpose Ollama models to LM Studio by symlinking its model files. Just run `python3 link-ollama-models-to-lm-studio.py`. On Windows, run it as admin.Expose Ollama models to LM Studio by symlinking its model files. Just run `python3 link-ollama-models-to-lm-studio.py`. On Windows, run it as admin. - link-ollama-models-to-lm-studio.py

I started a little python project to take my ~20 years of photos, categorize them and analyze the content using locally. So far the results are pretty good. Some hallucinations, but mostly useful content.

I'd be interested in knowing if others have tried this. What information has been useful to collect? Face identification is a big area my tool needs some work on. I want to group family/friends.