Un hilo de Show HN en Hacker News está explotando en este momento — 628 puntos y 137 comentarios en poco tiempo. El proyecto se llama Apfel, y la premisa es lo suficientemente simple como para preguntarse por qué nadie lo ha hecho antes: Apple ha integrado un modelo de lenguaje completo en macOS 26 Tahoe como parte de Apple Intelligence, pero lo exponen casi exclusivamente a través de Siri y sus propias aplicaciones del sistema. Apfel derriba esa barrera.
Concretamente, esto significa que puedes pasar texto a través de la terminal, enviar archivos al modelo o levantar un servidor HTTP local con una API compatible con OpenAI — y usar herramientas y SDKs existentes como si estuvieras hablando con GPT-4. La diferencia es que todo ocurre en tu propia máquina, sin que un solo byte la abandone.
El modelo tiene una ventana de contexto de 4096 tokens y soporta la llamada a herramientas (tool calling), lo cual es más que suficiente para muchos usos prácticos. No es GPT-4o, pero ese tampoco es el objetivo. El objetivo es que existe, es lo suficientemente rápido, es privado y no cuesta nada.
¿Qué diferencia a Apfel de Ollama o LM Studio? Bastante, de hecho. Ollama y LM Studio son herramientas brillantes, pero se trata de descargar modelos de código abierto de terceros y ejecutarlos localmente. Eso requiere tiempo, espacio en disco y cierta comodidad técnica. Apfel no hace nada de eso — el modelo ya está ahí. Es más parecido a descubrir que tu portátil tiene un botón turbo oculto.
Para los desarrolladores, el servidor HTTP con una API compatible con OpenAI es la verdadera característica estrella. Significa que puedes reemplazar la llamada a la API en proyectos existentes con un solo cambio de línea y de repente tener costo cero, latencia cero (a nivel de red) y privacidad total — en máquinas que de todos modos ejecutan macOS 26.
Por supuesto, hay limitaciones. Necesitas Apple Silicon y el macOS más reciente, y el modelo de Apple no es abierto en el sentido tradicional — no puedes ajustarlo ni reemplazarlo. Y en este momento, estas son señales tempranas de fuentes de la comunidad en HN; aún no sabemos cómo se desempeñará el modelo en tareas más exigentes con el tiempo.
Pero el factor de expectación es real: la gente en el hilo está sorprendida de que esto no haya recibido más atención. Muchos están descubriendo por primera vez que poseen hardware con un LLM integrado que nunca han usado.
Vale la pena seguirlo de cerca. Esto podría convertirse en una de esas cosas silenciosas que de repente están en todas partes.
