¿La inteligencia artificial ocasionará la extinción de la humanidad? Carta abierta de expertos en tecnología busca alertar a la población

¿La inteligencia artificial ocasionará la extinción de la humanidad? Carta abierta de expertos en tecnología busca alertar a la población

La inteligencia artificial representa un "riesgo de extinción" que requiere una acción global, según una solicitada que cuenta con la firma de destacados científicos de la computación y expertos en tecnología.

"Mitigar el riesgo de extinción por la inteligencia artificial debería ser una prioridad global junto con otros riesgos a escala social, como pandemias y guerra nuclear", dijeron un grupo de expertos en IA y otras personalidades influyentes en una declaración breve publicada por el Centro de Seguridad de la IA, un grupo de investigación y defensa con sede en San Francisco.

Los firmantes incluyen a expertos en tecnología como Sam Altman, CEO de OpenA, y Audrey Tang, ministra digital de Taiwán. También destacan el CTO de Microsoft, Kevin Scott y los reconocidos investigadores de IA Yoshua Bengio y Geoffrey Hinton, quienes previamente han expresado preocupaciones sobre la tecnología que ayudaron a desarrollar.

La advertencia es de alguna manera la continuación de la carta abierta firmada por Elon Musk y otras personalidades influyentes en marzo de este año que pedía una pausa de seis meses en el desarrollo de IA más avanzada que la de OpenAI, el GPT-4.

"Los sistemas de IA potentes deben desarrollarse solo cuando estemos seguros de que sus efectos serán positivos y sus riesgos manejables", decía la carta.

El rápido avance de la IA a traído consigo varias preocupaciones, principalmente el temor a la pérdida de control y autonomía humana. A medida que la IA avanza, existe la posibilidad de que cada vez más decisiones y acciones cruciales sean tomadas por máquinas en lugar de seres humanos, lo que podría conducir a un desequilibrio en el poder y la responsabilidad. Además, la IA carece de la empatía y la intuición inherentes a la naturaleza humana, lo que puede dificultar su capacidad para comprender y responder adecuadamente a situaciones complejas y éticamente ambiguas. La dependencia excesiva de la IA también plantea interrogantes sobre la privacidad y la seguridad de los datos, ya que su uso masivo implica la recopilación y el análisis constante de información personal.

Aunque la IA actual no ha alcanzado aún el nivel de inteligencia artificial general (AGI, por sus siglas en inglés), que potencialmente le permitiría tomar decisiones independientes, investigadores de Microsoft en marzo afirmaron que el GPT-4 mostraba "chispas de AGI" y era capaz de resolver "tareas novedosas y difíciles que abarcan matemáticas, programación, visión, medicina, derecho, psicología y más, sin necesidad de una indicación especial".

En una comparecencia ante el Congreso de Estados Unidos a principios de este mes, Altman instó a los legisladores a desarrollar rápidamente regulaciones para la tecnología de IA.

Estados Unidos y otros países, fundamentalmente en Europa, están trabajando rápidamente para establecer legislaciones que equilibren la necesidad de supervisión con la prometedora tecnología.

China también ha tomado medidas para regular la IA, promulgando legislación sobre deepfakes y exigiendo a las empresas que registren sus algoritmos ante los reguladores.