Inteligencia Artificial

Estuve probando ChatGPT y Dall-E, la primera es un bot de chat al que le puedes hacer preguntas sobre diversos temas y obtener respuestas generadas a partir de la información existente en la web; mientras que la segunda es una herramienta capaz de generar «arte» digital. Como se ha dicho y visto, estamos en medio de una revolución tecnológica en la que el eje es el desarrollo de diversas inteligencias artificiales.

Según leí hace unas horas en una fuente que ya no recuerdo, las inteligencias artificiales se pueden clasificar en débiles o fuertes, siendo las débiles las que se dedican a una tarea concreta mientras que las fuertes serían las que igualaran o superaran las capacidades de la mente humana. En el caso de ChatGPT, según el mismo ChatGPT se trata de una inteligencia artificial débil enfocada en el procesamiento del lenguaje natural.

Soy una inteligencia artificial de lenguaje natural basada en la tecnología GPT-3 de OpenAI, que se considera una inteligencia artificial débil o estrecha. Mi función es procesar el lenguaje natural y proporcionar respuestas coherentes y relevantes a las preguntas y solicitudes de los usuarios.

Mi capacidad para entender el lenguaje natural y generar respuestas se basa en un conjunto de algoritmos complejos que utilizan técnicas de procesamiento del lenguaje natural (NLP) y aprendizaje automático para analizar patrones en los datos y aprender de ellos. Sin embargo, es importante tener en cuenta que mi conocimiento se limita a lo que se me ha enseñado durante mi entrenamiento y no tengo conciencia propia ni la capacidad de razonar o sentir emociones como lo hace un ser humano.

ChatGPT

Algo que me encantó del entrenamiento de esta IA es lo que me respondió cuando le pregunté de donde obtiene su información.

Como modelo de lenguaje basado en la tecnología GPT-3 de OpenAI, mi conocimiento y capacidad para responder preguntas proviene de una variedad de fuentes, incluyendo textos, artículos, sitios web, libros y otros recursos en línea.

Durante mi entrenamiento, se me proporcionó acceso a una gran cantidad de datos en línea para aprender a procesar y entender el lenguaje natural. Además, también tengo acceso a bases de datos de conocimiento y enciclopedias en línea, como Wikipedia, para obtener información adicional sobre diferentes temas.

Sin embargo, es importante tener en cuenta que aunque trato de proporcionar respuestas precisas y relevantes, siempre puede haber errores en mi comprensión o en la información que se me ha proporcionado. Por lo tanto, siempre es recomendable verificar la información que proporciono a través de otras fuentes confiables.

ChatGPT

Me encantó la oración que dice «Por lo tanto, siempre es recomendable verificar la información que proporciono a través de otras fuentes confiables.» Hablaremos de ello más delante, mientras veamos que generó Dall-E cuando le pedí la imagen de un hombre canoso con barba y abrigo junto a un coche de los 50’s.

He de decir que tuve que jugar un poco con la descripción, aunque no fui muy específico en verdad, supongo que pude haber elegido el color del abrigo, la complexión del hombre u otros parámetros, pero la imagen cumplió con mis expectativas.

¿Qué opino al respecto?

Sigo opinando lo mismo, pero con más consciencia. Las IA’s son herramientas fabulosas, tan fabulosas como un rifle. Podemos darle usos muy positivos, pero también usarlas para mal, como cualquier otra herramienta. Por otro lado, al igual que con muchas otras invenciones, mi preocupación es el grado de dependencia que podemos generar, volviéndonos menos capaces de generar nuestra propia información y tomar nuestras propias decisiones. Actualmente tenemos inteligencias artificiales participando en el diagnóstico de enfermedades, por ejemplo. Es aquí donde estamos en un punto de inflexión en el que se corre el riesgo de que las futuras generaciones de médicos se vuelvan cómodos y confíen ciegamente en una herramienta de detección automatizada dejando de ejercitar su juicio crítico volviéndose menos capaces en la práctica. Así como un estudiante de ingeniería es incapaz de multiplicar 7 por 8 sin ayuda de una calculadora, esto que comento es un caso real.

Como bien dijo mi nuevo amigo ChatGPT: «Por lo tanto, siempre es recomendable verificar la información que proporciono a través de otras fuentes confiables.» Es esencial tomar en cuenta que una IA es solo una herramienta, es como preguntarle a un amigo qué sabe sobre tal tema. Si una IA dice que algo que aparece en una tomografía es un tumor yo lo tomaría como una opinión y no como un hecho duro. En cualquier decisión siempre debe estar el criterio del ser humano que está presente y no dejarlo todo a la interpretación de una máquina. Mientras tanto estas tecnologías son un buen aliado, pero no se les debe confiar demasiado, no se les debería dejar a cargo de ningún asunto donde está en juego la vida de una persona. No puedo ni podré confiar ciegamente en un piloto automático (evidencia de fallos hay suficiente), ni en un diagnóstico médico que no esté avalado por un especialista humano (y aún así hay fallos); pero en cambio no tengo ningún problema en usar algoritmos para detectar patrones de consumo de los clientes o para tasar primas de seguros, la vida de nadie depende de ellos.

Considero que, efectivamente y sin lugar a dudas, la inteligencia artificial va a reemplazar a muchísima gente, pero solo a los más ineptos, mientras que los que tengan su mente bien ejercitada estarán por encima de cualquier amenaza. Creo que esto que digo será válido por un par de décadas más, ya veremos cómo se va desarrollando esta tecnología y a qué límites legales será sujeta en un futuro próximo.

Como caso de estudio consideremos el caso de Stanislav Yevgráfovich Petrov, quien el El 26 de septiembre de 1983 (todavía 25 en Estados Unidos) a las A las 00.14 (hora de Moscú), decidió ignorar la alarma de que un misil balístico había sido disparado desde Estados Unidos hacia la Unión soviética. Stanislav Petrov estaba a cargo del búnker Sérpujov-15, el centro de mando de la inteligencia militar soviética desde donde se coordinaba la defensa aeroespacial rusa. Su misión era verificar y alertar de cualquier ataque a sus superiores, con lo que se iniciaría el proceso para contraatacar con armamento nuclear a los Estados Unidos. En principio, Petrov pensó que debía de tratarse de un error, porque no tendría sentido que los estadounidenses atacaran con un único misil. Más tarde los ordenadores indicaron que cuatro misiles más se dirigían hacia la URSS. Petrov conocía bien las peculiaridades del sistema satélite de alerta temprana OKO y creía que este podía equivocarse, así que consideró de nuevo que eran muy pocos misiles, solo cinco, cuando Estados Unidos tenía miles. Decidió esperar y se descubrió que era una falsa alarma causada por una rara conjunción astronómica entre la Tierra, el Sol y la posición específica del satélite OKO. Cuando le preguntaron por qué no había dado la alerta, contestó:

La gente no empieza una guerra nuclear con solo cinco misiles.

Stanislav Petrov

Aquí podemos apreciar algo importante, la intuición y el criterio de los seres humanos son irreemplazables, hay diferentes decisiones con consecuencias tan potencialmente terribles que no pueden dejarse a una máquina que no es más lista que un mono adiestrado y con menos intuición que un zombi.

Publicado por Mario Cuevas

Ingeniero, profesor, maestro de artes marciales