Constantemente se habla de la inteligencia artificial (IA) como algo que, definitivamente, viene a cambiar nuestra vida. Unos ya han comenzado a implementarla como una herramienta más de marketing, e incluso para mejorar los motores de búsqueda en apps de citas. Y sin embargo, hay una gran facción de expertos en tecnología que han pedido hacer una pausa para evaluar los riesgos que podría implicar el desmedido desarrollo de esta nueva tecnología.
Y es que, en este momento, los desarrolladores no han terminado de comprender cómo funcionan las neuronas artificiales que componen ChatGPT, la IA desarrollada por OpenAI. Esta es la conclusión de un estudio interno realizado por la propia compañía, que está tratando de “descubrir” cómo estos modelos toman sus propias decisiones.
Claude, el nuevo chatbot basado en inteligencia artificial: ¿qué ofrece?
Los desarrolladores coinciden en que, para empezar, se necesita encontrar un método que sirva para analizar, de manera confiable, una “red neuronal” compuesta por millones de células artificiales. Y el informe de OpenAI solo ha asegurado que, posiblemente, se ha encontrado un proceso que “permita hacerlo en un futuro”, como se lee en el medio español La Vanguardia.
Hasta el momento, se sabe que esta red neuronal artificial se compone por nodos que reciben información, la procesan y la emiten, tomando así decisiones. Un proceso que guarda relación con el funcionamiento del cerebro humano, cuyas neuronas se conectan entre sí y permiten la toma de decisiones basadas en los estímulos recibidos.
Estos estímulos o “modelos”, que terminan alimentando a ChatGPT se conocen como “caja negra” y es aquí donde los investigadores pierden la partida, pues se sabe que las neuronas artificiales se alimentan de estos modelos, pero aún no es posible saber cómo logran llevar a cabo el proceso para tomar decisiones.