Ejecutando Ollama con GPU en un miniPC AMD (ROCm vs Vulkan)
Hace poco tiempo me hice de un miniPC con un Ryzen moderno y una iGPU bastante potente (AMD Radeon 780M), pensé algo muy simple y terminé horas frente a la computadora, tratando de resolver la simplicidad de ejecutar un modelo de LLM local usando Radeon desde un contenedor con Ollama.