martes, mayo 28, 2024

España tiene la oportunidad de crecer un 8% en la próxima década

Una de las tecnológicas con más influencia en el planeta, Google, está diseñando un futuro donde la inteligencia artificial sea el corazón de gran...
spot_img

De esta categoría

InicioARTÍCULO DE LA SEMANA¿Quién le teme a la Inteligencia Artificial?

¿Quién le teme a la Inteligencia Artificial?

En los últimos meses, las noticias en torno a la inteligencia artificial son del todo inquietantes, a tal grado que parecen un aviso de que el lobo vendrá a devorarse a los corderos. ¿Es acaso esta tecnología el lobo?

La irrupción de diversos sistemas de Inteligencia Artificial como ChatGPT, GenAI o GenerativeAI, Dall-E o GPT ha motivado que cientos de creadores de arte, de contenidos así como múltiples prestadores de servicios adviertan de la peligrosidad de todas estas herramientas en su uso masivo.

En unos años más, anticipan el cierre de miles de puestos de trabajo e inclusive tener como próxima competencia, en su quehacer creativo, a un sistema que crea técnicas para producir contenido original.

Por ejemplo, que el próximo best seller en las librerías no sea un libro escrito por Mario Vargas Llosa, sino por uno de estos sistemas concebidos por expertos en tecnología desde una empresa en San Francisco, California o en Beijing, China.

O que la inauguración de una galería de arte no incluya ningún cuadro de Dalí, Picasso, Van Gogh, Rembrandt o Goya sino la obra pintada por un sistema de Inteligencia Artificial.

Que haya creaciones y servicios que terminen colapsados porque un software lo hará de forma perfecta y además, ahorrará al empresario el costo de tener varios trabajadores contratados. El futuro de un medio de comunicación podría terminar en manos de un sistema de inteligencia artificial que contase las noticias desde la orientación ideológica, política o religiosa con la que fue previamente ideado.

Inclusive una herramienta tecnológica dará forma a los trabajos escolares y los ensayos, así como las tesis necesarias para obtener un título profesional y hacerlo de tal forma impecable. que no habría lugar para demostrar un plagio o que ha sido escrita por un software y no un humano.

Hace unos días, en el Capitolio, la voz de Samuel Altman, director Ejecutivo de OpenAI, retumbó en los oídos de los senadores que escuchaban ávidos la voz experta de este millennial que ha sido uno de los creadores de sistemas de inteligencia artificial más precoces. A tal grado es su talento, que actualmente a sus 38 años de edad, no es solo millonario sino que ha sido varias veces reconocido por Forbes.

En 2015, fundó junto con Elon Musk, Jessica Livingston y Peter Thiel, la empresa OpenAI dedicada a la investigación tecnológica de cuya creación emanó ChatGPT.

Ha sido este prototipo de bot desarrollado en 2022 una de las claves de sol que han dejado entrever la capacidad infinita de los programas de IA; un potencial que, como todo, incluida a la ciencia misma, tiene su lado positivo y oscuro.

Ante una comisión en el Senado, Altman explicó las bondades de ChatGPT señalando que es un “prototipo de chatbot “ especializado en el diálogo con una amplia capacidad de lenguaje para sostener una o cientos de conversaciones con un ser humano y de esta forma interrelacionar con él.

Tan solo en medio año desde su lanzamiento este servicio ya contaba con más de un millón de usuarios y sus creadores están a la espera de que su expansión continue con miras a cobrar por sus servicios. Hasta el momento está vetado en países como Irán, China, Rusia y varias partes de África y en la Unión Europea (UE) habrá de discutirse al respecto del impacto de esta tecnología.

Altman que si algo sabe es de tecnología y de su potencial, pidió a los legisladores norteamericanos estructurar una pionera regulación en materia de inteligencia artificial en Estados Unidos.

«Creo que si esta tecnología sale mal, puede salir bastante mal. Y queremos ser vocales sobre eso. Queremos trabajar con el gobierno para evitar que eso suceda”, afirmó el tecnólogo.

De acuerdo con el New York Times, en este primer testimonio de Altman ante el Congreso, el empresario imploró a los legisladores que regularan la IA; sin embargo, los miembros del comité mostraron una comprensión incipiente de la tecnología pero no dejaron de mostrarse inquietos por los daños potenciales de la inteligencia artificial en el mercado laboral así como en las redes sociales para generar determinado contenido que termine manipulando a las masas. Ya no es solo cuestión de fake news.

Un alumno en Chicago pidió a ChatGPT que escribiera para él una poesía para sus deberes de Literatura y el resultado fue sorprendente por la capacidad creativa de este sistema de inteligencia artificial.

inteligencia artificalGuerra tecnológica

En el terreno del dominio y el conocimiento de la IA se libra una intensa guerra entre EU y China. Hay una carrera frenética, como en su momento se libró entre EU y Rusia, en el campo espacial, para ver qué país era el primero en conseguir la tecnología para lanzar una capsula espacial fuera de la órbita terrestre. El 4 de octubre de 1957, la entonces URSS, lanzó al espacio Sputnik I que fue capaz de alcanzar la órbita terrestre y el 3 de noviembre de dicho año, la URSS metió a la perra Laika en el Sputnik 2 siendo el primer ser vivo en viajar al espacio.

Con la IA acontece el mismo escenario de competencia feroz y si en EU, nace ChatGPT, en Beijing, la china Baidu presentó a Ernie con las mismas características que la versión norteamericana.

Si bien el presidente chino, Xi Jinping, no ha manifestado públicamente ningún tipo de temor sobre el impacto de la inteligencia artificial en su país, en el caso de EU, el mandatario Joe Biden, afirmó recientemente ante empresarios del sector de la tecnología que la IA “tiene un enorme potencial y un enorme peligro” y no descartó impulsar una regulación al respecto.

El senador Chris Coons, un demócrata de Delaware, señaló en dicha comparecencia que los chinos están creando inteligencia artificial que «refuerza los valores fundamentales del Partido Comunista Chino y el sistema chino» y dijo que habrá un inminente adoctrinamiento.

A ciencia cierta, esta pionera regulación en estos momentos es solo una quimera, porque la crítica de Altman y de otros tecnólogos hacia l legisladores es que no logran comprender qué es la IA y la confunden solo con el uso de las redes sociales.

“La tecnología que en mi compañía estamos implementando es verdad que puede llegar a destruir algunos empleos; no obstante, permite al mismo tiempo, generar nuevos puestos de trabajo porque es también una oportunidad”, inquirió Altman ante los legisladores presentes en el Capitolio.

En dicha audiencia también intervinieron, Christina Montgomery, directora de privacidad y confianza de IBM y Gary Marcus, profesor y crítico frecuente de la tecnología de inteligencia artificial. A propuesta de Marcus y de Altman se propuso la creación de una agencia que emita licencias para el desarrollo de modelos de IA a gran escala con regulaciones de seguridad y una serie de pruebas para que los sistemas y modelos de inteligencia artificial que sean creados pasen antes por estos baremos.

«Creemos que los beneficios de las herramientas que hemos implementado hasta ahora superan ampliamente los riesgos, pero garantizar su seguridad es vital para nuestro trabajo», en voz de Altman.

Richard Blumenthal, senador demócrata por Connecticut y presidente del panel del Senado, reconoció en dicha reunión que el Congreso ha fallado para mantenerse al día en materia de regulaciones y supervisiones en el renglón de las nuevas tecnologías.

El Washington Post reveló que los miembros del subcomité sugirieron una agencia independiente para supervisar a la IA así como reglas que obligan a las empresas a revelar cómo funcionan sus modelos y los conjuntos de datos usados. Además, de reglas antimonopolio, para evitar que compañías como Microsoft y Google dominen en dicho mercado.

Ni tan peligrosa

¿Terminará la IA desplazando a los seres humanos? ¿Llegara a vencerlos intelectualmente? ¿Plantea amenazas públicas o incluso existenciales? No exento de esta polémica, Noam Chomsky, uno de los intelectuales más brillantes publicó en The New York Times un artículo que tituló La falsa promesa del ChatGPT y cuestionó todos los fallos en el mecanismo del lenguaje utilizados por este sistema de inteligencia artificial.

El profesor emérito del Massachusetts Institute (MIT) dijo que ChatGPT es ante todo “un plagio de alta tecnología” que tenderá más bien a evitar el aprendizaje.

No son pocos los tutores escolares, directores de universidades y profesores que advierten que la primera víctima del ChatGPT será la educación y con ella, los educandos que perderán capacidad en lectoescritura, comprensión lectora; capacidad de síntesis; redacción, investigación y narración. Escribir es una forma de fijar el lenguaje.

Robert Zaretsky, de la Universidad de Houston, cree que el ensayo universitario murió hace años. Según su argumento: «Es un juego de tazas en el que un estudiante me envía un archivo electrónico que, cuando está abierto, derrama un revoltijo de palabras que el remitente propone que sea un papel terminado. La mayoría de las disrupciones tecnológicas dejan efectos positivos y negativos a su paso; si el ensayo universitario es realmente insalvable, tal vez ChatGPT finalmente logre su reemplazo con algo más interesante”.

El presentador del canal de YouTube EduKitchen preguntó al respecto a Chomsky: «Durante años diversos programas han ayudado a los profesores a detectar ensayos plagiados… ahora será más difícil, porque es más fácil plagiar. Pero esa es la única contribución a la educación que se me ocurre».

También Chomsky ha escrito otro artículo para The New York Times en colaboración con Ian Roberts, profesor de lingüística en la Universidad de Cambridge y Jeffrey Watumull, un filósofo que también es director de inteligencia artificial en una empresa de tecnología.

Los tres inquieren sobre la exageración en torno a productos como ChatGPT, tanto para los inversores que de repente están muy entusiasmados con la posibilidad de un trabajo robótico independiente, como para otros que están potencialmente preocupados por el inminente apocalipsis de los robots.

De acuerdo con los autores de este editorial: “La mente humana no es, como ChatGPT y sus semejantes, un motor estadístico pesado para la coincidencia de patrones, atiborrándose de cientos de terabytes de datos y extrapolando la respuesta conversacional más probable o la respuesta más probable a una pregunta científica. Por el contrario, la mente humana es un sistema sorprendentemente eficiente e incluso elegante que opera con pequeñas cantidades de información; No busca inferir correlaciones brutas entre puntos de datos, sino crear explicaciones”.

A sus 95 años de edad, Chomsky conserva una de las mentes más brillantes y lúcidas, para el lingüista y filósofo judeoestadunidense, estos programas no pueden explicar las reglas de la sintaxis inglesa lo que hace que sus predicciones sean siempre superficiales y dudosas.

El tema es el lenguaje y el impacto que estos sistemas de IA tendrán en él y en la adquisición del conocimiento para el ser humano y las funciones en el cerebro.

Articulo de la semana

Los fondos europeos, nebulosa en su seguimiento

“Nos hemos vuelto todos locos. Pensar que se pueden emplear estas cantidades tan enormes en el corto plazo no es realista. Se exageró todo,...

Entrevista exclusiva