OpenAI: En busca del control de la superinteligencia artificial

OpenAI, la influyente empresa de inteligencia artificial dirigida por Sam Altman, ha estado en el centro de atención en la conversación tecnológica durante el último año debido a sus avances en la creación de ChatGPT y otras innovaciones en el campo de la inteligencia artificial. Sin embargo, más allá de sus logros actuales, la compañía está mirando hacia el futuro y enfrentando uno de los desafíos más significativos en el mundo de la IA: el control de la superinteligencia artificial.

 

Dentro de OpenAI, se ha establecido un equipo especializado conocido como Superalignment, que se creó en julio de este año. El objetivo principal de este equipo es desarrollar formas de controlar, regular y dirigir sistemas de IA que, en teoría, superarían la inteligencia humana.

 

Este enfoque se conoce como «superalineación», y su objetivo es abordar uno de los aspectos más sensibles de la inteligencia artificial avanzada. Según Collin Bruns, uno de los miembros del equipo Superalignment, alinear un modelo de IA con inteligencia similar o inferior a la humana es factible, pero hacerlo con un modelo más inteligente que los humanos presenta desafíos mucho más complejos.

 

Sam Altman, director ejecutivo de OpenAI, ha advertido sobre los «riesgos catastróficos» que la IA avanzada podría presentar, incluyendo amenazas químicas o nucleares. Aunque algunos expertos han cuestionado estas afirmaciones, el equipo Superalignment está decidido a abordar los desafíos y riesgos que presenta la superinteligencia artificial.

 

Ilya Sutskever, científico en jefe y cofundador de OpenAI, lidera este equipo y ha estado trabajando en la investigación de cómo controlar sistemas superinteligentes. El equipo está utilizando un enfoque donde una IA menos avanzada guía a un modelo más sofisticado, como una analogía de una inteligencia humana que dirige a una superinteligencia. Esto se hace con la esperanza de que el modelo menos capaz pueda influir en el más avanzado y, en última instancia, controlarlo.

 

La importancia de este tema en OpenAI se refleja en su compromiso financiero. Se informa que el 20% del poder de cómputo de la empresa está reservado para el equipo Superalignment. Además, OpenAI ha lanzado un programa de subvenciones de 10 millones de dólares para apoyar la investigación en el campo de la superalineación. Estas subvenciones estarán disponibles para laboratorios académicos, investigadores y estudiantes de posgrado.

 

La compañía planea llevar a cabo una conferencia académica sobre este tema a principios de 2025, donde compartirá las investigaciones más relevantes en torno a la superinteligencia. Este esfuerzo busca fomentar un diálogo sobre el futuro de la IA y cómo abordar los desafíos éticos y técnicos que conlleva la creación de sistemas más inteligentes que los humanos.

 

El control de la superinteligencia artificial es un tema que está en el centro de la agenda de OpenAI, y su enfoque en la alineación superinteligente refleja su compromiso con un desarrollo de IA seguro y ético.

 

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *