Ejecutando Deepseek R1 en tu Hardware Local Gratis
Deepseek R1 es un modelo de IA LLM asombroso, potente, rápido y pequeño que puedes descargar y ejecutar en tu propia PC completamente gratis y sin conexión. Este artículo cubre todo, desde alojar el modelo localmente hasta una potente interfaz web similar a ChatGPT.
Introducción a Deepseek R1
Deepseek R1 es un nuevo modelo fantástico que fue entrenado a un costo mucho menor y se ejecuta en hardware mucho más pequeño, más rápido, etc. Es un paso adelante fantástico para la IA y la tecnología LLM. Al igual que otros LLM e IA, puedes descargarlos y ejecutarlos en tu propia PC completamente sin conexión y completamente gratis.
Esta es la leyenda de la imagen 1
Instalando Ollama
Para ejecutar Deepseek R1 en tu sistema, necesitas descargar un programa que pueda cargar este modelo y usarlo realmente. Ollama es esencialmente un programa que te permite cargar el modelo y chatear con él directamente o conectarte a él usando otros programas. Puedes encontrar un enlace para descargar Ollama en la descripción a continuación. Simplemente elige descargar, luego selecciona Windows, Mac o Linux, y descarga para cualquier sistema operativo que sea.
Descargando e Instalando el Modelo Deepseek R1
Una vez que tengas Ollama instalado, necesitas descargar el modelo Deepseek R1. Puedes encontrar los comandos de descarga del modelo enlazados a continuación. Tienes varias opciones para elegir, incluyendo Deepseek R1 1.5b, 7B, 8B, 14b, 32b y 70b. Estas son todas versiones destiladas del modelo, que esencialmente se ejecutan en sistemas con menos RAM y vram.
Esta es la leyenda de la imagen 2
Ejecutando Deepseek R1
Para ejecutar Deepseek R1, necesitas pegar el comando que copiaste en una terminal, símbolo del sistema o ventana de power shell. Cuando lo hagas, se conectará y comenzará a descargar el modelo real en sí. El tamaño del modelo aumenta drásticamente cuanto más avanzas en la lista. De todos modos, una vez que termina de descargarse, verifica y, poco después, puedes chatear con él.
Chateando con Deepseek R1
Puedes chatear con Deepseek R1 usando la terminal, el símbolo del sistema o la ventana de power shell. Puedes hacerle preguntas y responderá. También puedes usar una interfaz web, como web.chatboxai.app, para chatear con Deepseek R1. Esta es una interfaz mucho más bonita que la ventana de la terminal.
Usando una GUI para Ollama
Hay varias opciones de GUI disponibles para Ollama, incluyendo web.chatboxai.app. Puedes descargar la UI dirigiéndote a chatboxai.app y descargándola. Hay miles de interfaces gráficas de usuario diferentes que puedes usar con Ollama.
Habilitando la API de Ollama
Para habilitar la API de Ollama, necesitas salir de Ollama, luego presionar inicio y buscar variables de entorno. Necesitas establecer dos opciones: OLLAMA_HOST y OLLAMA_ORIGINS. Puedes encontrar los valores para estas opciones en la documentación de Ollama.
Seleccionando el Modelo Deepseek R1
Una vez que tengas la API de Ollama habilitada, puedes seleccionar el modelo Deepseek R1 que deseas usar. Puedes elegir de la lista de modelos disponibles, incluyendo 1.5b, 7B, 8B, 14b, 32b y 70b.
Conclusión
Ejecutar Deepseek R1 en tu hardware local de forma gratuita es una excelente manera de experimentar el poder de la IA sin tener que pagar por hardware costoso o tarifas de suscripción. Con Ollama y el modelo Deepseek R1, puedes chatear con un potente modelo de IA y obtener respuestas de alta calidad a tus preguntas. Ya seas un desarrollador, un investigador o simplemente alguien que esté interesado en la IA, definitivamente vale la pena echarle un vistazo a Deepseek R1.
Nota: Desafortunadamente, las imágenes en las marcas de tiempo de 45239 segundos, 9736 segundos, 5942 segundos, 70248 segundos y 847759 segundos no están disponibles.
Además, ten en cuenta que el artículo no incluye ninguna imagen en las marcas de tiempo de 45239 segundos, 9736 segundos, 5942 segundos, 70248 segundos y 847759 segundos, ya que son nulas.
Sin embargo, la imagen en la marca de tiempo de 70248 segundos se menciona en el texto como "[at 702.48 seconds] so let's go for say the 32 billion parameter model", pero en realidad es la imagen en la marca de tiempo de 148 segundos la que se usa en el artículo.
La imagen correcta para el modelo de 32 mil millones de parámetros no está disponible.
Si deseas agregar la imagen para el modelo de 32 mil millones de parámetros, puedes usar la siguiente sintaxis de markdown:
Esta es la leyenda de la imagen
Reemplaza "image_url" con la URL real de la imagen.