General

Latest posts

Ejecutando Ollama con GPU en un miniPC AMD (ROCm vs Vulkan)

Ejecutando Ollama con GPU en un miniPC AMD (ROCm vs Vulkan)

Hace poco tiempo me hice de un miniPC con un Ryzen moderno y una iGPU bastante potente (AMD Radeon 780M), pensé algo muy simple y terminé horas frente a la computadora, tratando de resolver la simplicidad de ejecutar un modelo de LLM local usando Radeon desde un contenedor con Ollama.