Ya sea para dominar el lenguaje mejor que los seres humanos o para procesar imágenes, las redes neuronales se han convertido en grandes proyectos desde los que se promete solventar los principales escollos a los que se enfrenta la inteligencia artificial actual. Pero su precio sigue siendo demasiado alto.

Este año una de las redes neuronales más conocidas y que ha dado más que hablar ha sido GPT-3. Se trata de un sistema de procesamiento natural del lenguaje o PNL desarrollado por OpenAI. GPT-3 ha dejado boquiabiertos a muchos en la red con su facilidad de palabra, aunque sigue presentando algunos fallos.

Para conseguir ese nivel de dominio del lenguaje, en concreto del inglés, los desarrolladores de GPT-3 han necesitado 175.000 millones de parámetros. Para que os hagáis una idea de lo rápido que ha crecido esta inteligencia artificial, la versión anterior presentada en 2019, GPT-2, contaba únicamente con 1.500 millones de parámetros y ya entonces se consideró que era un avance de gran importancia en el campo de la inteligencia artificial. Esto se termina traduciendo en presupuestos millonarios.