Modelos de Lenguaje de Gran Escala (LLMs)

Marcos, herramientas y recursos para Modelos de Lenguaje de Gran Escala (LLMs), que incluyen entrenamiento, inferencia (vLLM, llama.cpp) y RAG.

Repositories

Grok open release

Python
51.5k

DeepSeek-V3 es un potente modelo de lenguaje Mixture-of-Experts (MoE) con 671B de parámetros totales y 37B activados por token. Incorpora atención latente multi-cabezal, entrenamiento FP8 y predicción multi-token, logrando un rendimiento comparable a los mejores modelos cerrados, manteniendo eficiencia y estabilidad en el entrenamiento.

Python
101.9k

DeepSeek-R1 es un modelo de razonamiento de primera generación que logra un rendimiento comparable a OpenAI-o1 en tareas de matemáticas, código y razonamiento. Cuenta con 671B de parámetros y está disponible bajo licencia MIT.

91.9k

Inference code for Llama models

Python
59.2k

Qwen3 is the large language model series developed by Qwen team, Alibaba Cloud.

Python
26.7k

Ollama es un marco ligero para ejecutar y gestionar modelos de lenguaje de código abierto localmente. Proporciona una CLI y API REST simples para construir aplicaciones de IA, soportando modelos como Llama, Gemma y Mistral con fácil integración en diversas herramientas y plataformas.

Go
164.0k

vLLM es una biblioteca rápida y fácil de usar para inferencia y servicio de LLM. Desarrollada originalmente en UC Berkeley, ofrece rendimiento líder, gestión eficiente de memoria con PagedAttention y integración perfecta con modelos de Hugging Face.

Python
71.8k
langchain-ai/langchain

LangChain es un framework para construir agentes y aplicaciones impulsadas por LLM. Ayuda a conectar componentes interoperables e integraciones de terceros para simplificar el desarrollo de aplicaciones de IA.

Python
128.1k

LlamaIndex is the leading document agent and OCR platform

Python
47.3k
SillyTavern/SillyTavern

LLM Frontend for Power Users.

JavaScript
23.8k

The definitive Web UI for local AI, with powerful features and easy setup.

Python
46.1k
open-webui/open-webui

Open WebUI es una plataforma de IA autoalojada, extensible, rica en funciones y fácil de usar, diseñada para funcionar completamente sin conexión. Soporta varios ejecutores de LLM como Ollama y APIs compatibles con OpenAI, con motor de inferencia integrado para RAG.

Python
125.6k

GPT4All es un ecosistema de código abierto que permite ejecutar modelos de lenguaje grandes (LLM) de forma privada en ordenadores y portátiles comunes. No requiere llamadas a API ni GPUs; solo descarga la aplicación y comienza a chatear con modelos de IA locales.

C++
77.2k
huggingface/open-r1

Fully open reproduction of DeepSeek-R1

Python
25.9k

Official inference framework for 1-bit LLMs

Python
28.6k

为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。

Python
70.2k

[EMNLP2025] "LightRAG: Simple and Fast Retrieval-Augmented Generation"

Python
28.9k