El director ejecutivo de OpenAI, Sam Altman, analiza la ética y la escala global de los cambios que aporta la IA

[ad_1]

Sam Altman de OpenAI asistió a una entrevista y compartió lo que sigue para ChatGPT, AGI y sus pensamientos sobre la enormidad de los cambios que traerá la IA a nivel global.

OpenAI tiene una hoja de ruta para el futuro de la IA

Al principio de la entrevista se le preguntó a Altman cuál era el futuro de OpenAI.

Respondió que tienen una hoja de ruta clara para los próximos años sobre los próximos modelos a desarrollar.

Pero también reconoció que la ciencia habrá avanzado mucho en dos años.

Altman comentó:

“En cierto modo sabemos hacia dónde van a ir estos modelos. Tenemos una hoja de ruta.

Estamos muy entusiasmados con… podemos imaginar tanto la ciencia como la tecnología, pero también el producto dentro de unos años.

Y más allá de eso, vamos a aprender mucho, seremos mucho más inteligentes en dos años de lo que somos hoy”.

El desafío de garantizar que la IA beneficie a la humanidad

La siguiente pregunta interesante le preguntó a Altman cuál es el mayor desafío para garantizar que la inteligencia artificial beneficie a la humanidad.

Altman expresó que estaba “razonablemente optimista” acerca de dar con la alineación de la IA.

La alineación es el campo científico que se ocupa de garantizar que la IA haga lo que se supone que debe hacer y no se descarrile con consecuencias no deseadas.

Sam Altman respondió:

“Soy razonablemente optimista acerca de la solución del problema de alineación técnica. Todavía tenemos mucho trabajo por hacer, pero sabes que me siento… cada vez mejor con el tiempo, no cada vez peor”.

¿De quién son los valores y la moralidad que definen la ética de la IA?

Altman continuó discutiendo la seguridad de la IA desde el ángulo de la ética, preguntando qué ética y valores serán la guía de lo que es la seguridad de la IA.

Es un tema espinoso porque la ética y los valores son subjetivos y difieren no sólo según el país sino también a nivel de persona a persona.

Reflexionó sobre este tema:

“…¿cómo decidimos con qué valores nos alineamos, quién establece las reglas para esto…?

En términos de cómo van a utilizar estos sistemas, todo eso va a ser… arduo, para decirlo a la ligera, que la sociedad esté de acuerdo».

Altman amplió sus pensamientos al escenario global, reflejando cómo incluso no está claro cómo será la “gobernanza global”.

«… tenemos que decidir cómo será… la gobernanza global sobre estos sistemas a medida que se vuelvan superpoderosos, y todos deben desempeñar un papel en eso».

¿Qué hacer con los trabajadores desplazados por la IA?

Luego, la conversación giró hacia el futuro cercano en relación con qué hacer con los trabajadores cuyos empleos desaparecen debido a la IA.

Una conversación que está teniendo lugar en este momento es el concepto de Renta Básica Universal (RBU) para ayudar a los miles de trabajadores que pueden ser desplazados por la IA.

Existe una creciente preocupación de que no se esté haciendo nada en este momento para desarrollar políticas que ayuden a los trabajadores que ya no tendrán ocupación.

Un artículo en El Atlántico sugiere que la renta básica universal es una solución:

“El problema de la IA no es la tecnología. El problema ni siquiera es el efecto potencial de la tecnología en el mercado laboral.

El problema es que no contamos con ninguna política para apoyar a los trabajadores en caso de que la IA provoque una pérdida masiva de empleos.

… Saluden a la renta básica universal, una idea política de 500 años de antigüedad cuyo momento tal vez finalmente haya llegado”.

Sam Altman dijo:

“Hay mucha gente que está entusiasmada con cosas como la RBU (y yo soy uno de ellos), pero no me hago ilusiones de que la RBU sea una solución completa o incluso la parte más importante de la solución.

La gente no sólo quiere dádivas de dinero de un AGI.

Quieren una mayor agencia, quieren poder ser arquitectos del futuro, quieren poder hacer más de lo que podían antes.

Y, encontrar cómo hacerlo mientras se aborda todo este tipo de, llamémoslos desafíos disruptivos, creo que será muy importante pero muy arduo”.

Sam Altman: ¿Cuántos años faltan para la inteligencia general artificial?

Más tarde se le preguntó a Altman cuántos años pasarán hasta que se desarrolle la Inteligencia General Artificial (AGI).

AGI describe el concepto de una IA que piensa y aprende de manera similar a los humanos.

No necesita estar capacitado para dar con problemas específicos, pero puede sostenerse en lo que ya sabe para encontrar soluciones, como un ser humano.

AGI es básicamente la poderosa IA que muchos tenían en mente en las novelas y películas de ciencia ficción, donde una inteligencia artificial tenía capacidad para aprender de manera independiente.

Altman dijo que todavía hay desacuerdo sobre una definición de AGI, pero que nos estamos acercando.

Dijo que OpenAI tiene su propia definición y que él tenía su definición personal, que es que AGI es una inteligencia que puede hacer descubrimientos científicos que los científicos nunca podrían haber logrado por sí solos.

Altman también dijo que no pudo indicar un número específico de años en los que AGI estará disponible.

Si bien Sam Altman se negó a adivinar cuántos años pasarán hasta que llegue AGI, sí dijo que están llegando sistemas de inteligencia artificial “poderosos” que transformarán la forma en que funciona el mundo.

Altman comentó:

«… Yo diría que espero que para finales de esta década tengamos sistemas extremadamente poderosos que cambien la forma en que pensamos actualmente sobre el mundo».

Hacer que la IA esté disponible

Altman expresó más tarde la importancia de hacer que GPT-4 esté ampliamente disponible, lo que llamó «democratizarlo globalmente».

Dijo que es importante que esté ampliamente disponible en todo el mundo, incluso si termina usándose de maneras con las que él personalmente no está de acuerdo.

Eso se remonta en cierto modo a su ambivalencia a la hora de definir qué moralidad y ética definirán los límites de la inteligencia artificial en términos de seguridad.

Sam Altman:

“Una de las cosas que creemos que es importante es que hagamos que GPT-4 esté ampliamente disponible.

Incluso si eso significa que la gente lo usará para cosas que quizás no siempre consideremos que sean las mejores cosas para hacer con él”.

Entrevista de gran alcance con Sam Altman

Hay preguntas difíciles de responder sobre el futuro de la IA. El director ejecutivo de OpenAI, Sam Altman, ofrece sus opiniones sobre los problemas y las soluciones, admitiendo que no todo está resuelto ni es fácil de responder. La entrevista ofrece una idea del asombroso impacto que la IA tendrá en los humanos a nivel mundial y lo que Altman hace para darle sentido a todo.

Mire la entrevista, hay mucho más que revela quién es Sam Altman y cuál será el futuro de la IA.

Imagen destacada de Shutterstock/yanishevska

[ad_2]

Consultar el artículo en la publicación original

El director ejecutivo de OpenAI, Sam Altman, analiza la ética y la escala global de los cambios que aporta la IA