Compartimos nuestro trabajo. Difundimos conocimientos, aprendemos y avanzamos juntos a un ritmo más rápido.
Un modelo multilenguaje de última generación para la clasificación zero-shot de textos. Más de 250.000 descargas al mes.
Un modelo GPT2 afinado sobre el conjunto de datos Alpaca para una experimentación fácil y rápida del método instruction tuning. Más de 3.000 descargas al mes.
Una biblioteca Python para personalizar el modelo generativo Stable Diffusion con las preferencias estéticas del usuario. +600 estrellas.
Una API para interactuar con grandes modelos de lenguaje como GPT-J. +300 estrellas.
Nowcasting (predicción a corto plazo) de la irradiancia solar, para optimizar la posición de los paneles solares. Complementando con datos de viento (dirección y velocidad).
Mejoras de hasta el 30% (según el sensor) respecto al modelo de referencia (persistencia).