Durante décadas, los superordenadores han sido máquinas gigantescas. Filas de servidores refrigerados, salas enteras llenas de cables y procesadores, y un consumo eléctrico capaz de alimentar un pequeño barrio. Por eso, cuando aparece un dispositivo que promete concentrar parte de esa potencia en un aparato del tamaño de una batería portátil, la pregunta surge casi automáticamente: ¿hasta dónde puede miniaturizarse la inteligencia artificial?. Eso es precisamente lo que propone Tiiny AI Pocket Lab, un dispositivo presentado por la startup Tiiny AI que se anuncia como el superordenador de inteligencia artificial más pequeño del mundo. Con apenas 14 centímetros de largo, 8 de ancho y algo más de dos de grosor (aproximadamente el tamaño de un power bank) pesa unos 300 gramos, pero promete ejecutar modelos de inteligencia artificial que hasta hace poco solo podían funcionar en centros de datos. Tal es su tamaño, que ha sido reconocida por Guinness como la más pequeña del mundo.. La idea detrás de este dispositivo es sencilla pero ambiciosa: trasladar la inteligencia artificial desde la nube hasta el bolsillo. En el interior del AI Pocket Lab hay un procesador ARM de 12 núcleos acompañado de una unidad de procesamiento neuronal (NPU) dedicada. Juntos alcanzan aproximadamente 190 TOPS (siglas de billones de operaciones por segundo), una medida habitual para calcular la capacidad de procesamiento de IA.. En términos prácticos, esa cifra lo sitúa en una liga sorprendente para un dispositivo portátil. Muchos ordenadores portátiles convencionales con aceleración de IA rondan entre 30 y 50 TOPS, mientras que algunos chips diseñados específicamente para inteligencia artificial en PC superan ligeramente los 100 TOPS. Este pequeño dispositivo, en cambio, supera esas cifras y se acerca más al rendimiento de hardware especializado.. Pero lo que realmente llama la atención es la memoria: 80 GB de RAM LPDDR5X, una cantidad que muchos ordenadores portátiles profesionales ni siquiera alcanzan. Esa enorme reserva de memoria es lo que permite algo poco habitual: ejecutar modelos de lenguaje gigantes directamente en el dispositivo, sin conexión a internet. El AI Pocket Lab puede ejecutar modelos de inteligencia artificial con hasta 120.000 millones de parámetros, una escala que hasta hace poco estaba reservada a infraestructuras de servidores o a GPU profesionales que cuestan miles de euros.. En otras palabras, tareas como análisis de texto complejo, generación de código o razonamiento multietapa podrían realizarse directamente en el dispositivo. Según sus desarrolladores, esta capacidad alcanza lo que describen como “inteligencia de nivel doctoral”, es decir, modelos capaces de abordar problemas complejos con múltiples pasos de razonamiento. Y todo ello sin depender de servidores externos.. Este enfoque tiene dos ventajas importantes. La primera es la privacidad: los datos nunca abandonan el dispositivo. La segunda es la independencia de la nube, lo que significa que la inteligencia artificial podría utilizarse incluso en lugares sin conexión a internet.. La clave para comprimir tanta capacidad en un dispositivo tan pequeño está en la eficiencia. El sistema utiliza técnicas de optimización como TurboSparse, que activa solo las partes necesarias de la red neuronal durante el cálculo, y PowerInfer, un motor que distribuye el trabajo entre CPU y procesadores especializados.. En lugar de intentar reproducir el enorme poder bruto de los centros de datos, el dispositivo reduce el problema: calcula solo lo imprescindible. Esto permite que todo el sistema funcione con un consumo relativamente bajo para su potencia, con unos 30 vatios de consumo térmico y alrededor de 65 vatios en funcionamiento completo, muy lejos de las GPU profesionales que pueden consumir más de diez veces esa energía.. Quizá lo más interesante de este dispositivo no sea su tamaño ni su potencia, sino lo que representa. Durante años, la inteligencia artificial ha seguido el mismo modelo: grandes centros de datos, enormes costes energéticos y dependencia constante de servidores remotos. El AI Pocket Lab apunta a un escenario diferente: una inteligencia artificial personal, local y portátil, algo más parecido a poseer un ordenador que a alquilar capacidad de cálculo en la nube. Si esta tendencia continúa, el futuro de la IA podría parecerse menos a gigantescos centros de datos y más a pequeños dispositivos personales capaces de pensar, analizar y crear… directamente desde nuestro bolsillo.
Dos veces más potencia que un ordenador de sobremesa y 80 GB de memoria RAM que caben en el bolsillo.
Durante décadas, los superordenadores han sido máquinas gigantescas. Filas de servidores refrigerados, salas enteras llenas de cables y procesadores, y un consumo eléctrico capaz de alimentar un pequeño barrio. Por eso, cuando aparece un dispositivo que promete concentrar parte de esa potencia en un aparato del tamaño de una batería portátil, la pregunta surge casi automáticamente: ¿hasta dónde puede miniaturizarse la inteligencia artificial?. Eso es precisamente lo que propone Tiiny AI Pocket Lab, un dispositivo presentado por la startup Tiiny AI que se anuncia como el superordenador de inteligencia artificial más pequeño del mundo. Con apenas 14 centímetros de largo, 8 de ancho y algo más de dos de grosor (aproximadamente el tamaño de un power bank) pesa unos 300 gramos, pero promete ejecutar modelos de inteligencia artificial que hasta hace poco solo podían funcionar en centros de datos. Tal es su tamaño, que ha sido reconocida por Guinness como la más pequeña del mundo.. La idea detrás de este dispositivo es sencilla pero ambiciosa: trasladar la inteligencia artificial desde la nube hasta el bolsillo. En el interior del AI Pocket Lab hay un procesador ARM de 12 núcleos acompañado de una unidad de procesamiento neuronal (NPU) dedicada. Juntos alcanzan aproximadamente 190 TOPS (siglas de billones de operaciones por segundo), una medida habitual para calcular la capacidad de procesamiento de IA.. En términos prácticos, esa cifra lo sitúa en una liga sorprendente para un dispositivo portátil. Muchos ordenadores portátiles convencionales con aceleración de IA rondan entre 30 y 50 TOPS, mientras que algunos chips diseñados específicamente para inteligencia artificial en PC superan ligeramente los 100 TOPS. Este pequeño dispositivo, en cambio, supera esas cifras y se acerca más al rendimiento de hardware especializado.. Pero lo que realmente llama la atención es la memoria: 80 GB de RAM LPDDR5X, una cantidad que muchos ordenadores portátiles profesionales ni siquiera alcanzan. Esa enorme reserva de memoria es lo que permite algo poco habitual: ejecutar modelos de lenguaje gigantes directamente en el dispositivo, sin conexión a internet. El AI Pocket Lab puede ejecutar modelos de inteligencia artificial con hasta 120.000 millones de parámetros, una escala que hasta hace poco estaba reservada a infraestructuras de servidores o a GPU profesionales que cuestan miles de euros.. En otras palabras, tareas como análisis de texto complejo, generación de código o razonamiento multietapa podrían realizarse directamente en el dispositivo. Según sus desarrolladores, esta capacidad alcanza lo que describen como “inteligencia de nivel doctoral”, es decir, modelos capaces de abordar problemas complejos con múltiples pasos de razonamiento. Y todo ello sin depender de servidores externos.. Este enfoque tiene dos ventajas importantes. La primera es la privacidad: los datos nunca abandonan el dispositivo. La segunda es la independencia de la nube, lo que significa que la inteligencia artificial podría utilizarse incluso en lugares sin conexión a internet.. La clave para comprimir tanta capacidad en un dispositivo tan pequeño está en la eficiencia. El sistema utiliza técnicas de optimización como TurboSparse, que activa solo las partes necesarias de la red neuronal durante el cálculo, y PowerInfer, un motor que distribuye el trabajo entre CPU y procesadores especializados.. En lugar de intentar reproducir el enorme poder bruto de los centros de datos, el dispositivo reduce el problema: calcula solo lo imprescindible. Esto permite que todo el sistema funcione con un consumo relativamente bajo para su potencia, con unos 30 vatios de consumo térmico y alrededor de 65 vatios en funcionamiento completo, muy lejos de las GPU profesionales que pueden consumir más de diez veces esa energía.. Quizá lo más interesante de este dispositivo no sea su tamaño ni su potencia, sino lo que representa. Durante años, la inteligencia artificial ha seguido el mismo modelo: grandes centros de datos, enormes costes energéticos y dependencia constante de servidores remotos. El AI Pocket Lab apunta a un escenario diferente: una inteligencia artificial personal, local y portátil, algo más parecido a poseer un ordenador que a alquilar capacidad de cálculo en la nube. Si esta tendencia continúa, el futuro de la IA podría parecerse menos a gigantescos centros de datos y más a pequeños dispositivos personales capaces de pensar, analizar y crear… directamente desde nuestro bolsillo.
Noticias de Tecnología y Videojuegos en La Razón
