Riesgos en el uso de la inteligencia artificial generativa

Aunque la inteligencia artificial generativa es una herramienta de invaluable utilidad, su uso implica numerosos riesgos.

En los últimos años, la investigación en inteligencia artificial (IA) ha experimentado un enorme crecimiento, impulsando el desarrollo de modelos cada vez más complejos, potentes y rápidos. Estos avances, alimentados por enormes conjuntos de datos y algoritmos cada vez más sofisticados, han llevado a la creación de modelos lingüísticos notablemente poderosos. Sin embargo, este progreso sin precedentes no está exento de desafíos y riesgos potenciales, especialmente en el ámbito de la inteligencia artificial generativa (IAG).

Contenidos relacionados:

La IAG es una rama particularmente prominente de la IA, cuya influencia se ha proliferado en diversos sectores de la sociedad moderna; desde en la creación de todo tipo de contenido, hasta en la interacción con sistemas de asistencia virtual. Este crecimiento explosivo ha suscitado preocupaciones sobre posibles aplicaciones cuestionables, provocando debates acalorados y reacciones extremas que van desde la prohibición de su uso hasta la comparación con hitos tecnológicos fundamentales (García, Llorens, Vidal, 2024).

De acuerdo a la AIAAIC, que rastrea incidentes relacionados con el uso ético de la IA, el número de controversias relacionadas con la IA ha aumentado significativamente en los últimos años. Algunos ejemplos de este fenómeno son la falsificación de noticias mediante deepfake, y el uso de tecnología de monitoreo en prisiones (Maslej, et.al 2023). Además, la disponibilidad generalizada de aplicaciones de inteligencia artificial generativa plantea desafíos y riesgos adicionales en términos de ética y seguridad (Gutiérrez, 2023).

A continuación, se explorarán algunos de los desafíos que acompañan a esta tecnología, así como las posibles estrategias para mitigar sus impactos negativos y promover su utilización responsable en beneficio de la sociedad.

¿Qué es la inteligencia artificial generativa?

La inteligencia artificial es una disciplina de las ciencias computacionales dedicada al estudio y desarrollo de modelos de cómputo capaces de emular actividades propias de los seres humanos, como el razonamiento y la conducta (López, 2007). Dentro de este amplio campo, la IA generativa emerge como una vertiente particularmente prometedora.

La IA generativa se define como un tipo de IA que utiliza diversos modelos y algoritmos de aprendizaje para crear contenido original a partir de datos existentes. A diferencia de los sistemas tradicionales, que simplemente aplican fórmulas o algoritmos para extraer resultados de una base de datos limitada, la IA generativa va más allá al utilizar el aprendizaje automático para detectar patrones en datos existentes y generar nuevos datos a partir de ellos (Feito, 2023).

Algunos ejemplos típicos de las capacidades de la IA generativa son:

  • Crear respuestas de texto para consultas escritas libremente
  • Generar imágenes a partir de descripciones textuales
  • Convertir texto en audio con diferentes voces
  • Componer música de diversos estilos
  • Producir código de programación
  • Generar videos a partir de texto u otros contenidos

El funcionamiento de la IA generativa se basa en distintos modelos que permiten a la tecnología aprender por sí misma. Por ejemplo, las redes neuronales adversariales generativas, o GANs, son una arquitectura dentro del campo del aprendizaje profundo compuesta por dos redes: una generadora y otra discriminadora. Estas redes compiten entre sí en múltiples iteraciones. La red generadora aprende a crear nuevos contenidos simulando la distribución de los datos de entrada, mientras que la red discriminadora intenta discernir entre datos reales y datos generados artificialmente. En cada iteración, ambas redes se refinan y mejoran, hasta que el discriminador ya no puede distinguir entre datos reales y sintéticos (Mantegna, 2020).

Programas de inteligencia artificial generativa

El aumento en el número de herramientas informáticas que incorporan características inteligentes ha sido especialmente notable en 2022 y 2023, impulsado en gran medida por los modelos de lenguaje de gran tamaño (LLM) que están siendo entrenados con una vasta base de conocimientos y una tremenda potencia de cómputo (García, Llorens, Vidal, 2024). Estos avances están dando lugar a una proliferación de herramientas multimodales que pueden transformar diversos tipos de entrada en diferentes tipos de salida, revolucionando así la forma en que interactuamos con la tecnología.

Las herramientas de inteligencia artificial generativa incluyen la generación de texto, imágenes, vídeo, objetos 3D, audio, código fuente y detección de texto generado por IA. Entre las aplicaciones más destacadas se encuentra el Generative Pre-trained Transformer (GPT), desarrollado por OpenAI, que ha revolucionado la producción automatizada de contenido textual. Este modelo es capaz de producir textos que imitan de manera convincente el estilo, tono y estructura de la escritura humana, además de ofrecer capacidades de traducción, adaptación y resumen de textos basadas en el contexto.

Además de la producción de texto, se han desarrollado herramientas innovadoras para la generación de imágenes a partir de texto, como Craiyon, DALL·E, Midjourney y Stable Diffusion. Estas aplicaciones utilizan GANs para crear imágenes originales con solo unas breves indicaciones expresadas en lenguaje natural, ampliando así las posibilidades creativas y artísticas de los usuarios.

Sin embargo, junto con estos avances también han surgido desafíos y riesgos, especialmente en áreas como la tecnología deepfake, que emplea la IA generativa para crear videos y audio con un nivel de realismo tan alto que pueden resultar difíciles de distinguir de los contenidos reales. Esta tecnología plantea preocupaciones éticas y de seguridad, ya que puede ser utilizada para manipular información y engañar a las personas (Franganillo, 2023).

Debilidades esenciales de la inteligencia artificial generativa y sus riesgos

A pesar de los avances significativos en la inteligencia artificial generativa, existen debilidades y limitaciones importantes en su estado actual, así como riesgos potenciales en su uso. Es fundamental comprender estos aspectos para adoptar un enfoque crítico y responsable hacia el uso de esta tecnología.

Una de las principales limitaciones de la IA generativa es su falta de comprensión profunda del contenido que genera. Aunque estas herramientas son capaces de producir textos, imágenes y otros medios con una apariencia convincente de naturalidad, no poseen un verdadero entendimiento del significado de lo que están creando. Esto puede llevar a resultados incoherentes, inexactitudes y falta de comprensión del contexto (Maslej, et.al 2023).

Además, hay que tomar en cuenta que las IAs suelen entrenarse con datos sin filtrar, por lo que estas herramientas pueden reproducir sesgos raciales, culturales y de género presentes en los datos aprendidos, lo que compromete la neutralidad y la equidad de sus resultados. Aunado a esto, dichos programas pueden no estar actualizados con la información más reciente o no basar sus respuestas en fuentes fiables y evidencias. Como resultado, el contenido generado puede ser incorrecto, engañoso o incluso inapropiado para ciertas situaciones (Franganillo, 2023).

La seguridad también es una preocupación importante en el desarrollo y despliegue de sistemas de IA generativa. Aunque se implementan mecanismos de seguridad, como filtros y salvaguardas, es difícil anticipar todos los escenarios adversos que pueden surgir en el uso real de estas herramientas. Por ejemplo, se ha demostrado que ChatGPT puede ser engañado para proporcionar instrucciones detalladas sobre cómo construir una bomba, si se le solicita desde la perspectiva de un investigador que afirma trabajar en investigaciones de seguridad relacionadas con bombas (Maslej, et.al 2023).

Imposibilidad para diferenciar la realidad de la ficción

La reciente introducción de contenidos generados por AIG en distintos ámbitos de la vida cotidiana ha transformado profundamente la forma en que las personas perciben y se relacionan con la información y la realidad. Las y los seres humanos tendemos, de manera natural, a confiar en lo que nos dicen nuestros sentidos. Sin embargo, esta confianza ciega se ve socavada por la capacidad de la IA para crear artificialmente contenidos que emulan con precisión los eventos y situaciones reales. Además, la falta de conocimiento generalizado sobre las capacidades y limitaciones técnicas de estos sistemas, ha llevado a una mayor susceptibilidad a la manipulación y al engaño (Mantegna, 2020).

Por otro lado, hoy en día, la información se comparte a una gran velocidad a través de Internet y las redes sociales. Esto incluye una gran cantidad de contenido sin validación ni verificación, que pudo haber sido falseado o alterado a través de IAG. Debido a esto, es posible afirmar que nos enfrentamos a una auténtica crisis de credibilidad, donde cada persona experimenta una realidad distinta, acorde al tipo de información con la que se ve bombardeada.

Desafortunadamente, la detección de contenidos generados por IA presenta aún enormes desafíos, con programas que tienen limitaciones significativas y pueden ser fácilmente eludidos por modelos lingüísticos avanzados. Esta falta de fiabilidad en la detección de contenido generado por IA plantea serias preocupaciones éticas, especialmente en contextos donde se toman decisiones importantes basadas en la información proporcionada (García, Llorens, Vidal, 2024).

El uso de la inteligencia artificial generativa como chivo expiatorio

Como ya se ha comentado, los posibles riesgos en el uso de la inteligencia artificial generativa son muy evidentes. No obstante, es necesario aceptar que, en algunos sectores, se ha llegado a culpar a esta tecnología por problemas sociales estructurales que existían antes de su popularidad. Es decir, que en lugar de reconocer las razones institucionales y sociales que realmente ocasionaron estas dificultades, se tiende a utilizar a la IA generativa como un chivo expiatorio conveniente.

Este fenómeno es evidente en el ámbito educativo, donde se culpa a herramientas como ChatGPT de las debilidades en las prácticas educativas actuales. Sin embargo, es importante reconocer que estas debilidades ya existían, aunque quizás no se admitían abiertamente. El sistema educativo, especialmente el universitario, está diseñado para un mundo donde la información era escasa y se adquiría y almacenaba en los centros educativos. No obstante, en la actualidad, vivimos en una sociedad de sobreinformación, donde el acceso inmediato a la información es la norma (García, Llorens, Vidal, 2024).

Desafortunadamente, los centros educativos, incluidas las universidades, siguen comprometidos con la creación, transmisión y preservación del conocimiento por medios y estrategias tradicionales, sin realmente prepararse para la transformación constante que el panorama educativo ha estado sufriendo ya por más de veinte años.

Ante esta nueva realidad, es necesario tener presente que, para utilizar la tecnología de manera informada y efectiva, debemos comprender tanto sus posibilidades como sus limitaciones. Esto requiere evitar los extremos y los sesgos que a menudo acompañan a la llegada de tecnologías disruptivas como la IA generativa. En este sentido, aunque su penetración en la sociedad ha sido rápida, es importante mantener una perspectiva equilibrada y basada en evidencia para abordar sus implicaciones sociales y educativas (García, Llorens, Vidal, 2024).

Deepfake: riesgos de esta inteligencia artificial generativa

La tecnología deepfake ha introducido una nueva dimensión de riesgos y malos usos en el ámbito audiovisual. Esta tecnología utiliza la inteligencia artificial generativa para crear vídeos con un nivel de realismo tan alto, que resulta difícil detectar su falsedad. A través de la manipulación de imágenes y sonidos, los vídeos deepfake pueden transformar por completo la apariencia y el discurso de sus protagonistas, haciendo que parezcan decir o hacer cosas que nunca hicieron en realidad.

Una de las principales preocupaciones con respecto a los deepfakes es su potencial para manipular la opinión pública y difundir información falsa. Debido a su alta calidad y realismo, estos vídeos pueden ser utilizados para crear bulos, fraudes o ataques a la reputación de personas, organizaciones o gobiernos. Además, al ser difíciles de verificar, los deepfakes pueden generar confusión y socavar la confianza en la información verídica (Franganillo, 2023).

En el ámbito del entretenimiento, los deepfakes han revolucionado la recreación de personas en películas, publicidad y programas de televisión. Sin embargo, su uso plantea serias cuestiones éticas, especialmente cuando se trata de recrear a celebridades fallecidas o suplantar la identidad de figuras públicas sin su consentimiento. Así, la falta de autorización de las personas recreadas por IA, junto con el dilema ético de su uso para generar contenido engañoso, representan un desafío importante en términos de integridad y responsabilidad.

Uso de inteligencia artificial generativa en divulgación científica y sus riesgos

Las herramientas de IAG pueden mejorar significativamente los procesos de redacción, revisión y publicación de artículos científicos. Además, esta tecnología puede ser utilizada para generar hipótesis, analizar datos y sugerir posibles revistas para la publicación de manuscritos, lo que puede ahorrar tiempo y recursos a las y los investigadores. Sin embargo, el uso de inteligencia artificial generativa en la creación de artículos científicos también plantea una serie de riesgos y desafíos éticos (Lopezosa, 2023).

Por un lado, la difusión de artículos supuestamente científicos o imágenes que carecen de fundamentos reales puede engañar a quienes los leen, lo que potencialmente libera una cadena de desinformación en línea. La naturaleza convincente de los contenidos generados por inteligencia artificial puede hacer que sean percibidos como verídicos por parte del público, lo que aumenta el riesgo de que se compartan ampliamente sin una debida verificación. Esta propagación de información falsa puede tener consecuencias significativas, desde malentendidos y confusiones, hasta decisiones erróneas basadas en datos incorrectos.

Además, algunos autores piensan que depender demasiado de las herramientas de IAG podría debilitar la capacidad de las y los investigadores para realizar un análisis riguroso y reflexivo, lo que podría afectar la calidad general de la investigación científica.

Por último, la falta de transparencia en el uso de IAG en la investigación científica plantea preocupaciones éticas adicionales. Es importante que los investigadores sean transparentes sobre cómo utilizan estas herramientas en sus investigaciones y que declaren cualquier uso de IAG en sus artículos. Además, las revistas científicas deben establecer políticas editoriales claras para promover el uso ético y responsable de la IAG en el proceso de preparación y revisión de artículos científicos (Cárdenas, 2023).

Inteligencia artificial generativa y manipulación de noticias

El uso de inteligencia artificial generativa puede ser una herramienta poderosa para las y los profesionales de la comunicación al ofrecerles la capacidad de generar contenido de manera rápida y eficiente. Desde la redacción automática de noticias, hasta la producción de material gráfico y audiovisual, la IAG puede mejorar la productividad y la accesibilidad de los contenidos mediáticos, ampliando así la diversidad de la información disponible para el público.

Sin embargo, el uso de la IAG también plantea riesgos importantes para la originalidad, la calidad y la veracidad de noticias. La generación automatizada de contenidos puede dar lugar a la proliferación de datos engañosos, sesgados o de baja calidad, especialmente cuando se utilizan técnicas como el clickbait para maximizar los ingresos publicitarios. Además, existe la preocupación de que la IAG pueda ser utilizada con fines maliciosos, como la creación de contenido tóxico o la difusión de desinformación deliberada (Franganillo, 2023).

Así mismo, la clonación de voz puede ser utilizada para narrar noticias y eventos con la voz de individuos famosos, lo que puede hacer que la información sea más atractiva para el público. Sin embargo, también plantea riesgos significativos, como la posibilidad de difundir noticias falsas o dañinas utilizando la voz de figuras públicas sin su consentimiento.

Además, la IAG también ha dado lugar a la creación de granjas de contenido. Estos sitios a menudo generan contenido de baja calidad con titulares sensacionalistas y están diseñados para maximizar los ingresos publicitarios. Esta práctica no solo socava la integridad del periodismo, sino que también puede contribuir a la desinformación y al clickbait, erosionando la confianza del público en las fuentes de información (Franganillo, 2023).

Riesgos de usar la inteligencia artificial generativa como instrumento político

El creciente uso de inteligencia artificial en el ámbito político conlleva una serie de riesgos significativos que pueden afectar la integridad de la información y la estabilidad de las democracias. Uno de los mayores riesgos es el potencial para la proliferación de contenido manipulado, como deepfakes, que pueden ser utilizados para difundir desinformación y propaganda. Un ejemplo notable ocurrió en marzo de 2022, cuando un video circulado en redes sociales y televisión pretendía mostrar al presidente ucraniano, Volodímir Zelenski​, dirigiendo a su ejército a rendirse en la lucha contra Rusia. Más tarde se reveló que el video era solo un deepfake, una manipulación de video creada con inteligencia artificial (Maslej, et.al 2023).

Este incidente resalta cómo la tecnología de inteligencia artificial, especialmente la generativa, puede ser mal utilizada para influir en la opinión pública y desestabilizar las relaciones internacionales. Los deepfakes políticos pueden generar confusión y desconfianza entre las y los ciudadanos, socavando la credibilidad de las instituciones gubernamentales y los líderes políticos. Además, pueden exacerbar tensiones geopolíticas y provocar conflictos innecesarios si se utilizan para fabricar evidencia falsa o incitar a la hostilidad entre países.

Además, el uso de inteligencia artificial en campañas políticas plantea preocupaciones éticas sobre la privacidad y el consentimiento de los ciudadanos. Las técnicas de análisis de datos y microsegmentación pueden utilizarse para manipular el comportamiento de los votantes y dirigir mensajes políticos específicos a audiencias seleccionadas. Esto plantea interrogantes sobre la transparencia y la equidad en el proceso político, así como sobre la protección de la privacidad de las y los individuos frente a la manipulación digital.

¿Qué riesgos implica la inteligencia artificial generativa para la producción creativa?

Si bien, la inteligencia artificial generativa ofrece oportunidades para la innovación y la eficiencia en la creación de contenido, también plantea riesgos significativos para la originalidad, la calidad y la ética en la producción cultural y creativa.

En primer lugar, la facilidad y la economía con la que se pueden generar contenidos, pueden llevar a una avalancha de materiales, muchos de los cuales pueden carecer de calidad o un propósito claro. Esta proliferación de contenido puede contribuir al ruido y la ‘infoxicación’, dificultando la distinción entre información relevante y trivial para los consumidores (Feito, 2023).

Por otro lado, la accesibilidad de la inteligencia artificial generativa para crear ilustraciones abstractas y conceptuales, sin la necesidad de habilidades especializadas en diseño gráfico, también plantea preocupaciones, ya que puede afectar negativamente a profesionales establecidos en campos como la fotografía y la ilustración, cuyo trabajo podría ser desplazado y devaluado por la abundancia de contenido generado automáticamente (Franganillo, 2023).

Además, la preocupación por el impacto de la inteligencia artificial generativa se extiende al ámbito cultural y creativo, donde los avances tecnológicos pueden desafiar el papel de los artistas humanos. La posibilidad de que los algoritmos generen imágenes y otros contenidos artísticos realistas plantea preguntas sobre el futuro de la creatividad humana y el valor del arte generado por máquinas (Fernández, 2022). Aunado a esto, la creación de contenido generada por inteligencia artificial también plantea preguntas éticas sobre el uso de material protegido por derechos de autor para entrenar algoritmos, así como preocupaciones sobre la posible obsolescencia de ciertos oficios creativos (Maslej, et.al 2023).

Influencia de la inteligencia artificial generativa en la vida cotidiana

El uso creciente de inteligencia artificial generativa está teniendo y tendrá un impacto significativo en las actividades de la vida cotidiana en diversas áreas, desde el ámbito laboral y económico hasta el educativo. Es fundamental que las personas comprendan cómo funciona la IA, conozcan las herramientas disponibles y dominen los ‘prompts’ para obtener resultados deseados, ya que esto será cada vez más importante en el futuro (Feito, 2023).

Desde la aparición de herramientas como ChatGPT en noviembre de 2022, ha habido un aumento exponencial en el uso de inteligencia artificial en todos los ámbitos. Esta tecnología está afectando especialmente los procesos de enseñanza y aprendizaje, con implicaciones significativas para la educación del futuro (García, Llorens, Vidal, 2024). En este sentido, el uso de la IA generativa plantea una serie de riesgos potenciales, como el aprendizaje rápido y superficial, la inhibición del pensamiento crítico y la creatividad, y la posible propagación de información incompleta o incoherente (García, 2023).

Por otro lado, en el ámbito laboral, el impacto global de la IA generativa se espera que sea considerable en los próximos años. Si bien, algunos informes sugieren que la automatización podría eliminar ciertos empleos, también se prevé que genere nuevos puestos de trabajo y aumente la productividad. Sin embargo, existe la preocupación de que la IA pueda devaluar algunos trabajos, aumentando con ello la desigualdad económica (Franganillo, 2023).

Sumado a todo esto, existen otros riesgos en el uso de la inteligencia artificial generativa que ya están materializándose en problemas serios. Por ejemplo, la preocupación por la violación de derechos de autor y la privacidad de los datos, así como el impacto ambiental negativo debido al gran consumo de energía necesario para procesar la información (García, 2023).

Usos delictivos de la inteligencia artificial generativa

La inteligencia artificial generativa representa una seria amenaza en manos equivocadas. La facilidad con la que se pueden crear contenidos sintéticos mediante algoritmos representa un riesgo potencial para la sociedad. Con esta tecnología, cualquier persona puede generar falsificaciones convincentes sin necesidad de conocimientos especializados o grandes inversiones. Estos contenidos pueden ser utilizados para una gran variedad de propósitos delictivos, como el fraude financiero, la difamación política, el chantaje con imágenes íntimas falsas y otros tipos de fraude y abuso.

La amenaza es especialmente preocupante en el caso de los deepfakes. En 2019, el 96 % de los vídeos deepfake publicados en línea eran pornográficos y no consentidos, lo que afectó principalmente a las mujeres. Además, en 2020 se identificaron más de 85 000 vídeos dañinos que atacaban la reputación de figuras públicas, y este número aumentaba exponencialmente cada seis meses (Franganillo, 2023).

Como ya se mencionó, los algoritmos de aprendizaje profundo se entrenan utilizando una gran cantidad de imágenes disponibles en Internet, pero la tecnología avanza rápidamente y cada vez requiere menos datos de entrada para lograr un nivel de realismo similar. Esto significa que los deepfakes y otras formas de contenido generado artificialmente pueden volverse aún más convincentes y difíciles de detectar en el futuro, lo que aumenta el riesgo de su uso para actividades delictivas.

¿Cómo prevenir los riesgos implicados en la inteligencia artificial generativa?

Dada la naturaleza versátil y potencialmente perjudicial de la inteligencia artificial generativa, es crucial establecer medidas para proteger los derechos individuales, salvaguardar la integridad de la información y prevenir su uso malicioso. Actualmente, se están implementando diversas estrategias para abordar estos desafíos, pero aún quedan muchos campos por cubrir.

Una de las acciones más destacadas es el desarrollo de filtros por parte de los principales buscadores, redes sociales y otras plataformas para detectar y penalizar el contenido generado por inteligencia artificial. Estos algoritmos utilizan la propia inteligencia artificial para identificar contenido sintético y potencialmente dañino. Sin embargo, este enfoque plantea desafíos técnicos y éticos, especialmente en lo que respecta a la privacidad y la libertad de expresión (Feito, 2023).

Otra medida importante es la educación pública sobre el funcionamiento y los riesgos de la inteligencia artificial. Es decir, reconocer la necesidad de que las personas comprendan cómo funciona la IA, y los posibles impactos de su uso en diferentes aspectos de la vida. Esto incluye la integración de conocimientos sobre IA en los programas educativos y la promoción de la alfabetización digital en la sociedad en general (García, Llorens, Vidal, 2024).

Finalmente, es necesario apuntar que, a nivel legislativo, se están proponiendo y adoptando diversas regulaciones para abordar los desafíos éticos y legales de la inteligencia artificial generativa en distintas partes del mundo. Por ejemplo, el Parlamento Europeo ha sentado las bases para regular el uso de los datos que alimentan los modelos generativos y prevenir los usos maliciosos de la IA que puedan vulnerar los derechos de protección de datos o la privacidad de los ciudadanos. Además, se están considerando medidas para garantizar la transparencia y la trazabilidad en el uso de la inteligencia artificial, así como para proteger la propiedad intelectual y combatir la desinformación y el fraude.

Referencias:

  • Cárdenas, J. (2023). Inteligencia artificial, investigación y revisión por pares: escenarios futuros y estrategias de acción. Revista Española de Sociología (RES), volumen (32), número (4). dialnet.unirioja.es
  • Feito, O. (2023). Inteligencia Artificial. OscarFeito.com. drive.google.com
  • Franganillo, J. (2023). La inteligencia artificial generativa y su impacto en la creación de contenidos mediáticos. Methaodos Revista de Ciencias Sociales, volumen (11), número (2). dialnet.unirioja.es
  • García, F. (2023). Discusión abierta sobre beneficios, riesgos y retos de la Inteligencia Artificial Generativa. INAIC: Congreso Internacional sobre Aprendizaje, Innovación y Cooperación. [Presentación PDF]. researchgate.net
  • García, F., Llorens, F., Vidal, J. (2024). La nueva realidad de la educación ante los avances de la inteligencia artificial generativa. RIED-Revista Iberoamericana de Educación a Distancia, volumen (27), número (1). redalyc.org/journal
  • Gutiérrez, K. (2023). Inteligencia artificial generativa: irrupción y desafíos. Revista Enfoques, volumen (4), número (2), pp. 57-82. revistasdigitales.uniboyaca.edu.co
  • López, B. (2007). Introducción a la Inteligencia Artificial. Instituto Tecnológico de Nuevo Laredo. itnuevolaredo.edu.mx
  • López, E. (2023). The role of generative artificial intelligence in scientific publishing. Educación XX1, volumen (27), número (1), pp. 9-15. revistas.uned.es
  • Lopezosa, C. (2023). La Inteligencia artificial generativa en la comunicación científica: retos y oportunidades. Revista de investigación e innovación en ciencias de la salud, volumen (5), número (1). scielo.org.co
  • Mantegna, M. (2020). Inteligencia ARTEficial: Creatividad computacional, inteligencia artificial generativa y derechos de autor. Universidad de San Andrés, Argentina. repositorio.udesa.edu.ar
  • Maslej, N., Fattorini, L., Brynjolfsson, E., Etchemendy, J., Ligett, K., Lyons, T., Manyika, J., Ngo, H., Niebles, J. C., Parli, V., Shoham, Y., Wald, R., Jack Clark y Perrault, R. (2023). The AI Index 2023 Annual Report. Standford University. aiindex.stanford.edu

Créditos de imagen de portada: Foto de Matheus Bertelli de Pexels

R. Mauricio Sánchez
R. Mauricio Sánchez
Licenciado en Psicología por la Facultad de Ciencias de la Conducta de la UAEMex (México). Experiencia docente y en atención clínica en entidades privadas y públicas, como el Instituto de la Seguridad Social. Editor adjunto y redactor especializado en Psicología en Mente y Ciencia.

Artículos diarios sobre psicología, neurociencias y salud para profesionales, estudiantes y mentes inquietas

CONTENIDO RELACIONADO

R. Mauricio Sánchez
R. Mauricio Sánchez
Licenciado en Psicología por la Facultad de Ciencias de la Conducta de la UAEMex (México). Experiencia docente y en atención clínica en entidades privadas y públicas, como el Instituto de la Seguridad Social. Editor adjunto y redactor especializado en Psicología en Mente y Ciencia.