El CEO de Nvidia estima que la IA general llegará en cinco años y será más precisa que la humana

Archivo - El presidente y CEO de Nvidia, Jensen Huang, en COMPUTEX 2023
Archivo - El presidente y CEO de Nvidia, Jensen Huang, en COMPUTEX 2023 - Walid Berrazeg/Sopa Images Via Z / Dpa - Archivo
Publicado: miércoles, 20 marzo 2024 13:57

   MADRID, 20 Mar. (Portaltic/EP) -

   El director ejecutivo de la firma tecnológica Nvidia, Jensen Huang, cree que la Inteligencia Artificial general (AGI, por sus siglas en inglés) llegará en cinco años y que será "un 8 por ciento mejor" que la de los seres humanos.

   La AGI se concibe como un tipo de sistema automático que tiene la capacidad de llevar a cabo cualquier tarea intelectual humana con éxito. Este 'software' puede, por tanto, razonar, aprender, comunicarse en lenguaje natural o, incluso, planificar el futuro.

   La IA general no debe confundirse con la IA, que es una disciplina de la informática que permite al 'software' resolver tareas nuevas y/o complejas con un rendimiento a nivel humano tras un entrenamiento previo, ya que la AGI puede hacerlo sin intervención manual y sin limitarse a un ámbito específico. Esto quiere decir que la AGI se puede autoenseñar y resolver problemas para los que nunca se ha formado.

   En un encuentro reciente con medios de comunicación, el CEO de Nvidia ha hablado sobre este tema y ha comentado que predecir "cuándo se verá una AGI aceptable" primero depende de cuál sea la definición esta IA.

   En este sentido, ha subrayado que "si se especifica que es algo muy concreto", como un conjunto de pruebas a las que se puede someter un programa informático para resolverlas como si se tratara de un humano, la AGI llegará "en cinco años".

   En este sentido, el directivo ha matizado que la IA general "puede funcionar muy bien"; tanto que podría ser "un 8 por ciento mejor que la mayoría de los usuarios" en pruebas como "un examen de abogacía, pruebas de lógica, económicas o la capacidad de aprobar un examen de premedicina", según recoge TechCrunch.

ALUCINACIONES "SOLUCIONABLES"

   Además de la AGI, Huang ha opinado sobre las alucinaciones de la IA. Se conoce como alucinaciones a aquellos datos que ofrece un modelo impulsado por esta tecnología que, a pesar de que están escritos de manera coherente, incluyen información incorrecta, sesgada o errónea.

   El directivo ha subrayado que cree que estas se pueden resolver fácilmente, siempre que para elaborar las respuestas se haga una investigación previa. "Ante una respuesta de una IA, hay que examinar la fuente y el contexto", ha señalado.

   Una vez se haya pasado esta primera fase del procedimiento, se debe "comparar los hechos con verdades conocidas" y, si la respuesta es incorrecta, aunque sea de forma parcial, debe descartarse la fuente y pasar a otra diferente.

   "La IA no debería simplemente responder. Primero debería hacer una investgiación para determinar cules de las respuestas son las mejores", ha sentenciado Huang.

Leer más acerca de: