Si te vendas los ojos, giras 50 veces y arrojas una piedra, inevitablemente le darás a un modelo basado en inteligencia artificial. El hype asociado a esta tecnología dejó atrás cualquier sensación de control, pero más allá de las dudas sobre su calidad y utilidad, lo cierto es que se ha vuelto mucho más sencilla de instalar en entornos convencionales. De hecho, el proyecto Ollama reduce todo el proceso a una descarga inicial, un par de comandos en PowerShell, y algunos minutos de tu tiempo.
Tal vez te hayas preguntado por qué no estoy cubriendo novedades relacionadas a inteligencia artificial como antes. La verdad es que atravesamos una fase de «Yo También» que roza lo desesperante. El número de proyectos abusando de la leyenda «ahora con IA» o similar es absurdo, y en la gran mayoría de los casos, sus resultados son decepcionantes.
A eso se suma la inmediata disponibilidad de los modelos más importantes, como ChatGPT (que eliminó el requerimiento de login en su versión free), Google Gemini, y Copilot (que Microsoft nos ofrece hasta para ir al baño). Sin embargo, hoy presento un pequeño acto de rebeldía, en la forma de modelos locales, privados, y offline. Obviamente, necesitarás cierto poder de fuego para que funcionen sin sobresaltos, pero los requerimientos de software son muy simples. El primer paso, es descargar Ollama.
Ollama: Una forma efectiva para ejecutar modelos de inteligencia artificial offline
Una vez que hayas descargado e instalado Ollama, notarás un pequeño icono en la bandeja de sistema. Esto no hace más que indicar el funcionamiento del entorno. También puedes ingresar a http://localhost:11434/, y verificar que aparezca la frase «Ollama is running». Ahora, Ollama no posee interfaz, pero tampoco la necesita: El «chat» propiamente dicho funciona bajo PowerShell.
Recomiendo abrir PowerShell con privilegios elevados, ya que Ollama deberá descargar los modelos para garantizar su ejecución local. La lista completa está aquí, pero Llama2 y Mistral son dos opciones interesantes para comenzar. Por ejemplo, al ejecutar el comando «ollama run llama2», Ollama obtendrá automáticamente una copia de Llama2. El promedio es de 4 gigabytes por modelo, o sea que deberás tener un poco de paciencia «y» espacio suficiente en tu unidad. El modelo estará listo para usar cuando veas el cursor, acompañado por la expresión «Send a message (/? for help)».
Entonces, ¿qué tan bien funciona Ollama? Admito que el entorno es muy bueno, pero la calidad final de las sesiones siempre estará atada a lo que pueda hacer o no cada modelo. Tanto Llama2 como Mistral registraron un buen comienzo, sin embargo, en menos de diez minutos ya estaban delirando con información incorrecta. Mistral conjuró un proyecto estadounidense (Project ALFRED) basado en RTGs a mediados de los ‘60 del cual no encontré nada. En cambio, Llama2 me dio dos fechas diferentes para las elecciones generales en México… e inventó nombres de candidatos. ¯\_(ツ)_/¯
En resumen, como herramienta de experimentación, Ollama tiene solidez. Los modelos, son otra historia. ¡Enlace más abajo!
Sitio oficial y descarga: Haz clic aquí
Saludos Lisandro
en otras palabras, es como la version de texto de “ComfyUI” ? es decir un DIY sin tokens extras pero no dejando de lado que no es perfecta, es genial para probar y pasar el rato sin los tediosos “gratis si colocas tu tarjeta de crédito par luego comprar dos creditos que al final ni convence”
Precisamente, todo lo que se necesita es espacio en disco para los modelos, una buena dosis de VRAM (que crece mucho dependiendo del número de parámetros)… y un poco de paciencia cuando empieza a mezclar fechas y lugares. XD