Escala la controversia: OpenAI acusa a DeepSeek de copiar su modelo ChatGPT

OpenAI alega que DeepSeek utilizó la información generada por su chatbot, ChatGPT.

La disputa entre OpenAI y la startup china DeepSeek ha escalado después de que OpenAI acusara a la empresa de haber «copiado» su modelo de lenguaje, ChatGPT, utilizando una técnica conocida como “destilación”. Esta afirmación, que ha tomado relevancia en medios como el Financial Times, ha encendido el debate sobre las prácticas de desarrollo en el ámbito de la inteligencia artificial (IA).

¿Qué es la Destilación en IA?

David Sacks, miembro de la PayPal Mafia y actual zar de IA de la Casa Blanca, explicó que la destilación es un proceso mediante el cual un modelo de IA aprende de otro modelo a través de la imitación. Según Sacks, en este proceso, el «modelo estudiante» realiza múltiples consultas al «modelo padre» para replicar su razonamiento, lo que permite absorber su conocimiento de manera eficiente. Este método, aunque considerado innovador, ha sido calificado como una forma de copiar, lo que coloca a DeepSeek en el centro de la controversia.

Las Acusaciones de OpenAI Contra DeepSeek

OpenAI alega que DeepSeek utilizó la información generada por su chatbot, ChatGPT, para entrenar su propio modelo de lenguaje, lo que le permitió construir un sistema similar a ChatGPT sin realizar la inversión millonaria en infraestructura de datos y procesamiento que OpenAI y Microsoft hicieron para desarrollar su tecnología. Aunque OpenAI no ha presentado pruebas concretas para sustentar esta afirmación, las acusaciones indican que DeepSeek habría utilizado consultas masivas a la API de ChatGPT para recopilar datos y entrenar su propio modelo.

Impacto en la Industria de la Inteligencia Artificial

La controversia ha tenido implicaciones más amplias para el sector de la inteligencia artificial. DeepSeek, que en poco tiempo se coronó como la aplicación número uno en la App Store, ha dejado a varias empresas de IA, incluidas NVIDIA, con pérdidas millonarias en el valor de mercado. Este cambio en el panorama ha puesto en alerta a los gigantes tecnológicos, quienes temen que la distorsión de los términos de servicio y las prácticas de «destilación» se conviertan en una amenaza a largo plazo.

¿Qué Sigue Para el Futuro de la IA?

Sacks asegura que, a pesar de los avances de empresas como DeepSeek, Estados Unidos mantiene una ventaja clave en el desarrollo de la infraestructura para IA. Según el zar de IA, la expansión de centros de datos y el desarrollo de chips avanzados seguirán siendo esenciales para que las empresas estadounidenses se mantengan competitivas a nivel mundial. Además, sostiene que las regulaciones y el enfoque de las empresas de IA hacia la diversidad y la inclusión han sido factores que permitieron que empresas chinas como DeepSeek avanzaran rápidamente.

Condusef advierte sobre estafas con inteligencia artificial: Cómo protegerte de los Deepfakes

Criminales modifican tu imagen con inteligencia artificial.

La tecnología de inteligencia artificial (IA) ha revolucionado numerosos sectores, pero también ha dado paso a nuevos riesgos para los usuarios, especialmente en el ámbito de la seguridad digital. Recientemente, la Comisión Nacional para la Protección y Defensa de los Usuarios de Servicios Financieros (Condusef) emitió una alerta sobre una peligrosa modalidad de estafa que utiliza videos deepfake o ultrafalsos. Este tipo de fraude, que utiliza imágenes generadas artificialmente, está provocando estragos, y muchos usuarios podrían estar cerca de convertirse en víctimas sin siquiera saberlo.

¿Qué son las estafas deepfake?

Las estafas deepfake, conocidas también como ultrafalsas, son una técnica en la que los delincuentes emplean inteligencia artificial para manipular imágenes y videos. Según la Condusef, los criminales están utilizando fotos de personas reales y animándolas artificialmente para crear escenarios ficticios, como secuestros o accidentes, con el fin de pedir dinero o información personal a sus familiares y amigos.

Por ejemplo, los estafadores pueden crear un video en el que tú, o alguien cercano, parece estar en una situación de emergencia, como un secuestro, pidiendo dinero para tu liberación. Los avances en IA hacen que estos videos sean tan realistas que los sistemas de reconocimiento facial no siempre logran detectar la falsificación.

Cómo protegerse de las estafas deepfake

Para evitar caer en estos fraudes, la Condusef recomienda estar alerta y aprender a identificar este tipo de manipulaciones digitales. Es esencial tener precaución sobre dónde y cómo compartimos nuestras fotos en línea, especialmente aquellas que muestran nuestro rostro claramente. Los delincuentes pueden usar estas imágenes para crear videos falsos que podrían llegar a tus amigos o familiares.

Además, la institución aconseja estar alerta a cualquier mensaje o vídeo que te solicite dinero o información personal, especialmente si proviene de fuentes desconocidas. Reconocer estas imágenes manipuladas te permitirá evitar caer en estas estafas cada vez más comunes.

El uso de deepfakes para suplantar figuras públicas

Aunque las estafas deepfake pueden involucrar imágenes de personas comunes, también se han hecho populares en situaciones que involucran figuras públicas. Un ejemplo de ello son los videos falsos que circulan en redes sociales, en los que se utilizan rostros de personalidades como la presidenta Claudia Sheinbaum o el expresidente Andrés Manuel López Obrador, para supuestamente recomendar inversiones en plataformas fraudulentas, como en el caso de Petróleos Mexicanos. (Pemex).

La Condusef y otros organismos han advertido sobre este tipo de fraudes, recordando que Pemex nunca ha invitado a la ciudadanía a invertir en plataformas externas, y que los videos en cuestión son manipulaciones creadas mediante IA para engañar a los usuarios.

Recomendaciones para evitar ser víctima de deepfakes

La Condusef hace un llamado a la ciudadanía para que se mantenga vigilante y aprenda a reconocer los riesgos asociados con los deepfakes. Además de proteger tus datos y fotos en línea, es importante ser cauteloso con cualquier video que pida dinero o datos personales, especialmente si proviene de fuentes poco confiables.

La educación sobre cómo identificar estos fraudes y la adopción de buenas prácticas en seguridad digital son pasos fundamentales para prevenir que los delincuentes utilicen la IA para llevar a cabo estafas cada vez más sofisticadas.

Tres trabajos que desaparecerán por la inteligencia artificial en los próximos cinco años

El avance de la inteligencia artificial (IA) y la automatización está reconfigurando el mercado laboral de manera acelerada.

El avance de la inteligencia artificial (IA) y la automatización está reconfigurando el mercado laboral de manera acelerada. Según el informe “Future of Jobs Report” del Foro Económico Mundial, estas tecnologías podrían eliminar hasta 92 millones de empleos para 2030, aunque se prevé la creación de 170 millones de nuevos puestos laborales. Este cambio refleja una tendencia hacia la automatización de tareas repetitivas y administrativas, lo que genera un fuerte impacto en diversas industrias. A medida que los trabajadores se adaptan, las habilidades tecnológicas serán esenciales para sobrevivir y prosperar en este entorno transformado.

Trabajos en Peligro de Desaparecer por la Inteligencia Artificial

  1. Cajeros de Centros Comerciales : Con la creciente implementación de sistemas de cajas automáticas y aplicaciones móviles para pagos, los cajeros están viendo cómo sus puestos de trabajo se reducen. Las soluciones de pago autónomas brindan a los consumidores rapidez y conveniencia, lo que acelera la desaparición de estos empleos.
  2. Empleados de Correos : La digitalización ha transformado radicalmente el sector postal, convirtiendo la correspondencia física en una forma mayormente electrónica. Esta transformación tecnológica ha disminuido significativamente la necesidad de empleados en el área de correos.
  3. Asistentes Administrativos : Con el aumento de herramientas como software de gestión, calendarios inteligentes y asistentes virtuales, muchas de las tareas realizadas históricamente por asistentes administrativos ahora son automatizadas. Esto ha reducido la demanda de estos profesionales en varios sectores.

Las Profesiones del Futuro: Oportunidades en la Era Digital

Por otro lado, las profesiones relacionadas con la tecnología y la sostenibilidad están mostrando un crecimiento significativo. Se espera una alta demanda de expertos en áreas como Big Data, inteligencia artificial, Machine Learning, desarrollo de software, ciberseguridad e ingeniería en Fintech. Además, sectores vinculados a las energías renovables y la creación de sistemas ecológicos jugarán un papel crucial en la generación de empleo.

El Impacto de la IA en el Mercado Laboral Global

La automatización está modificando no solo las competencias necesarias, sino también la manera en que las personas interactúan con sus trabajos. Las empresas están invirtiendo en tecnologías avanzadas para mejorar su eficiencia, lo que afecta la demanda de ciertas habilidades y crea nuevas oportunidades en campos que requieren interacción humana. Sectores como la educación, la salud y la atención al cliente seguirán siendo esenciales en el futuro del trabajo.

Preparándose para el Futuro: La Adaptación es Clave

El informe destaca que la adaptación a los avances tecnológicos será fundamental para la empleabilidad en el futuro. Los profesionales deberán enfocarse en adquirir habilidades que las máquinas no puedan replicar, como el pensamiento crítico, la creatividad y la resolución de problemas complejos. La colaboración entre gobiernos, empresas y sistemas educativos será crucial para facilitar una transición laboral equitativa y garantizar que los trabajadores estén preparados para las oportunidades del futuro.

Conclusión: Un Futuro de Oportunidades y Desafíos

Aunque la automatización y la inteligencia artificial traen consigo retos significativos para el mercado laboral, también ofrecen oportunidades para quienes se preparan adecuadamente. Con un enfoque en la educación continua, el desarrollo de habilidades tecnológicas y la adaptabilidad, los trabajadores podrán encontrar su lugar en un mercado laboral cada vez más digitalizado y automatizado.

Nvidia revoluciona el futuro de la IA con nuevos chips para juegos y robótica avanzada

Nvidia, la gigante de la tecnología, ha presentado su última innovación en la Arena Ultra de Las Vegas.

Nvidia, la gigante de la tecnología, ha presentado su última innovación en la Arena Ultra de Las Vegas, donde reveló nuevos chips diseñados para videojuegos y dio un gran paso hacia la mejora de la inteligencia artificial (IA) en robótica y vehículos autónomos. El CEO de la compañía, Jensen Huang, destacó el avance de los chips RTX 50, que incorporan la tecnología IA «Blackwell» de Nvidia para ofrecer gráficos hiperrealistas. Estos chips, que estarán disponibles entre enero y febrero, tendrán un precio que oscila entre los 549 y los 1.999 dólares.

Los nuevos chips RTX 50 prometen un rendimiento impresionante, igualando las capacidades del RTX 4090, pero a un precio mucho más accesible. Huang celebró esta mejora como una manera de hacer que la tecnología de alta gama sea más accesible para un mayor número de jugadores y desarrolladores. La demanda de chips para juegos de IA, que producen gráficos detallados de objetos y personas, está en auge, y estos nuevos modelos están diseñados para elevar la experiencia visual en videojuegos y aplicaciones profesionales.

Innovación en Robótica y Vehículos Autónomos

Uno de los anuncios más revolucionarios fue el de «Cosmos», un modelo de IA desarrollado por Nvidia para entrenar robots y coches autónomos con vídeos hiperrealistas. Este modelo puede generar simulaciones de situaciones del mundo real para que los robots y autos aprendan a interactuar de manera más eficiente con su entorno. Con un entrenamiento de 20 millones de horas de vídeo, Cosmos ayudará a democratizar el acceso a la robótica avanzada y permitirá que los desarrolladores creen aplicaciones más rápidas y efectivas.

Nvidia tiene grandes planes para el futuro de la robótica, y Huang aseguró que la compañía está preparando modelos con licencias abiertas, lo que permitirá que los desarrolladores accedan a ellos para acelerar la investigación y el desarrollo en la industria. En este sentido, Toyota ya ha anunciado que utilizará la tecnología de Nvidia para potenciar la asistencia avanzada al conductor en sus vehículos, aunque aún no se han especificado los modelos que implementarán esta tecnología.

Un Superordenador Personal para la IA

Además de los chips para juegos y robótica, Nvidia presentó un innovador superordenador personal de IA llamado «Digits», con un precio de 3,000 dólares, que está impulsado por el nuevo superchip GB10 Grace Blackwell. Esta herramienta permitirá a los desarrolladores de IA realizar entrenamientos y simulaciones de alta gama en sus propios equipos, llevando la potencia de los supercomputadores a un entorno más accesible.

El Impacto de Nvidia en el Mercado de la Tecnología

Las acciones de Nvidia han tenido un año impresionante, con un aumento superior al 170%, impulsadas por la creciente demanda de chips de IA. Este lunes, las acciones alcanzaron un máximo histórico de 149,43 dólares, convirtiendo a Nvidia en la segunda empresa más valiosa del mundo, solo por detrás de Apple. El éxito de Nvidia en la bolsa refleja el creciente interés y la demanda por tecnologías de IA avanzadas, lo que posiciona a la empresa como líder en la industria de los semiconductores.

Con una visión centrada en la robótica y la IA, Nvidia está marcando el rumbo del futuro de la tecnología, no solo para los videojuegos, sino también para las industrias de la automoción y la robótica.

Guía completa para usar Grok, la IA de Elon Musk en X: Paso a paso

Grok, el chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, ya está disponible de manera gratuita para todos los usuarios de X (anteriormente conocida como Twitter).

Grok, el chatbot de inteligencia artificial desarrollado por xAI, la empresa de Elon Musk, ya está disponible de manera gratuita para todos los usuarios de X (anteriormente conocida como Twitter). Esta innovadora herramienta combina capacidades avanzadas de lenguaje natural y generación de imágenes, permitiendo a los usuarios interactuar de manera única. En esta guía, te explicamos cómo usar Grok, sus características y todo lo que puedes hacer con él.

¿Qué es Grok y qué puede hacer?

Grok no es solo un chatbot común, sino una herramienta multifuncional que ofrece varias posibilidades para crear contenido y responder preguntas en tiempo real. Basada en el modelo Grok-2, esta IA es capaz de realizar tareas complejas, como generar textos, traducir idiomas, resumir información de sitios web, y analizar documentos y gráficos. A diferencia de otros asistentes, Grok también cuenta con capacidades de generación de imágenes a través de Aurora, un generador de imágenes fotorrealistas basado en IA.

Entre sus funciones más destacadas, Grok puede:

  • Responder preguntas en tiempo real.
  • Generar contenido como historias, guiones y poemas.
  • Traducir idiomas y resumir información compleja.
  • Crear imágenes a partir de texto (con hasta tres imágenes gratuitas al día).
  • Ofrecer interacciones con un toque humorístico y sarcástico.

¿Cómo usar Grok en X? Guía paso a paso

Acceder a Grok es sencillo, y cualquier usuario de X puede comenzar a usarlo siguiendo estos pasos:

1. Requisitos previos

  • Asegúrate de tener una cuenta activa en X, con al menos siete días de antigüedad y asociada a un número de teléfono.

2. Acceso a Grok en X

  • En dispositivos móviles: Busca el botón de Grok en el menú inferior de la aplicación oficial de X.
  • En computadora: Accede al sitio web de X y encontrarás el botón de Grok en el menú lateral izquierdo.

3. Comienza a interactuar

  • Una vez dentro, puedes empezar a interactuar con Grok, hacer preguntas, generar contenido o incluso solicitar imágenes. Recuerda que en la versión gratuita, puedes realizar hasta 10 solicitudes cada dos horas y tres análisis de imágenes al día.

4. Opciones de privacidad

  • Los usuarios pueden elegir si desean que sus interacciones sean utilizadas para mejorar el modelo de Grok o si prefieren mantenerlas privadas.

Uso de Grok en dispositivos móviles

Si prefieres usar Grok desde tu teléfono, sigue estos pasos:

  1. Inicia sesión en tu cuenta de X desde la aplicación oficial.
  2. Accede al menú inferior y localiza el botón de Grok.
  3. Toca el botón para empezar a interactuar con Grok y comenzar a explorar sus funciones.

Uso de Grok en computadora

Para usar Grok desde un PC:

  1. Abre el sitio web de X en tu navegador e inicia sesión.
  2. En el menú lateral izquierdo, encuentra y selecciona el botón de Grok.
  3. Comienza a interactuar con Grok para disfrutar de sus funciones avanzadas.

¿Qué dijo Elon Musk sobre Grok?

Elon Musk ha expresado su entusiasmo por Grok, destacando que la IA está diseñada para ofrecer respuestas con un toque de humor, lo que la hace más accesible y humana. Musk también ha mencionado que Grok es un modelo multimodal, capaz de analizar tanto texto como imágenes, lo que lo convierte en una herramienta poderosa para diversos sectores.

“Aunque todavía estamos en una fase temprana, ya es bastante preciso y tiene el potencial de mejorar mucho más”, dijo Musk. Además, ha alentado a los usuarios a enviar imágenes médicas para su análisis, como rayos X y resonancias magnéticas, para probar sus capacidades en áreas como la atención médica.

Grok es una herramienta avanzada que puede revolucionar la forma en que interactuamos con la inteligencia artificial. Su acceso gratuito y sus múltiples funciones, que van desde la generación de contenido hasta el análisis de imágenes, lo convierten en una opción atractiva para los usuarios de X. Si aún no lo has probado, sigue nuestra guía y comienza a explorar todas sus capacidades.

Sheinbaum solicita penas más severas para el uso de IA en violencia sexual digital}

Este estudiante fue acusado de modificar y distribuir imágenes de sus compañeras con contenido sexual utilizando IA, y luego venderlas.

La presidenta de México, Claudia Sheinbaum, instó a tipificar el uso de la Inteligencia Artificial (IA) como un tipo de violencia sexual digital, un llamado que surgió a raíz del caso del estudiante del Instituto Politécnico Nacional (IPN), Diego “N”. Este estudiante fue acusado de modificar y distribuir imágenes de sus compañeras con contenido sexual utilizando IA, y luego venderlas.

Durante su conferencia matutina, Sheinbaum destacó la creciente preocupación por el uso indebido de tecnologías como la IA en casos de violencia de género. «Es una nueva forma de violencia, el uso de la Inteligencia Artificial para crear o modificar imágenes de mujeres con contenido sexual. Por eso, es necesario tipificar este delito», declaró la mandataria.

La presidenta subrayó que estos casos deben ser tratados con seriedad y atendidos por ministerios públicos y jueces, insistiendo en la urgencia de crear un marco legal que proteja a las mujeres de estas nuevas formas de violencia digital. En este sentido, también anunció que la Secretaría de la Mujer, encabezada por Citlalli Hernández, se encargará de brindar apoyo a las víctimas, fortaleciendo las áreas de atención en la subsecretaría liderada por Ingrid Gómez.

Este caso destaca la necesidad de adaptarse a los avances tecnológicos, ya que el uso de la IA en la creación de contenido no consensuado está emergiendo como una amenaza significativa para la seguridad de las mujeres en línea.

Cabe recordar que, en los primeros días de diciembre, Diego “N” fue absuelto de dos acusaciones de ataque a la intimidad sexual, pero sigue enfrentando otras investigaciones. La Fiscalía reveló que el acusado poseía fotos de más de mil mujeres de entre 17 y 25 años, las cuales modificaba para distribuirlas como contenido sexual.

Este tipo de violencia digital subraya la necesidad de que el sistema legal mexicano se adapte a las nuevas tecnologías y brinde protección efectiva a las víctimas de violencia de género.

Padres Demandaron a Escuela por Acusar a su Hijo de Hacer Trampa Usando Inteligencia Artificial

La acusación se refiere a que su hijo fue señalado de hacer trampa en un proyecto académico al utilizar IA generativa para completar su tarea.

En un caso que ha generado un importante debate sobre el uso de la inteligencia artificial (IA) en la educación, Dale y Jennifer Harris, padres de un estudiante de la escuela secundaria Hingham, presentaron una demanda contra la institución educativa. La acusación se refiere a que su hijo fue señalado de hacer trampa en un proyecto académico al utilizar IA generativa para completar su tarea. La familia asegura que la sanción fue injusta debido a la falta de normas claras sobre el uso de esta tecnología en el manual escolar.

El caso comenzó en diciembre de 2023, cuando el estudiante de tercer año fue acusado de copiar y pegar texto generado por IA para un proyecto de Historia de Estados Unidos de nivel avanzado. Los funcionarios escolares descubrieron que el contenido incluía citas ficticias de libros inexistentes, conocidas como «alucinaciones» de la IA, lo que llevó a la escuela a concluir que los estudiantes habían violado las políticas académicas al presentar como propio un trabajo generado artificialmente.

Aunque la escuela permitía el uso de la IA para generar ideas y localizar fuentes, los funcionarios señalaron que el estudiante había infringido las reglas al no atribuir correctamente el trabajo generado por la herramienta. Además, el tiempo que los estudiantes emplearon en la tarea, aproximadamente una hora, fue significativamente menor en comparación con el promedio de más de siete horas que otros estudiantes dedicaron al proyecto.

En respuesta a la sanción, los padres demandaron a la escuela, solicitando que se modificara la calificación de su hijo y que el incidente fuera eliminado de su expediente disciplinario antes de que iniciara el proceso de solicitud a universidades. Argumentaron que el manual escolar no especificaba normas contra el uso de IA y, por lo tanto, la sanción no era válida.

Por su parte, los funcionarios de la escuela defendieron su decisión, subrayando que el uso no autorizado de tecnologías, incluida la IA, estaba implícitamente prohibido en las políticas generales del centro. Además, afirmaron que el objetivo de la medida disciplinaria no era castigar, sino educar sobre la importancia de la honestidad académica y el uso ético de las herramientas tecnológicas.

En el fallo judicial, el magistrado federal Paul Levenson rechazó la demanda, indicando que los argumentos de la escuela prevalecían tanto en los hechos como en la interpretación legal. Destacó que la falta de una regla explícita sobre el uso de la IA no eximía a los estudiantes de cumplir con los principios generales de honestidad académica. Según el tribunal, el uso de texto generado por IA, que incluye información errónea, es incompatible con los estándares educativos de la actividad académica.

Este caso ha abierto un debate sobre cómo las instituciones educativas deben regular el uso de tecnologías como la inteligencia artificial en las aulas. A medida que aplicaciones generativas como ChatGPT ganan popularidad, muchos educadores enfrentan el desafío de equilibrar el aprovechamiento de estas herramientas con la necesidad de mantener la integridad académica. Sin embargo, la falta de directrices claras en muchas escuelas podría dar lugar a situaciones similares en el futuro, lo que subraya la urgencia de establecer políticas definitivas sobre el uso de la IA en la educación.

«Por Favor, Muérete»: El Perturbador Incidente con el Chatbot Gemini de Google que Desata Alarmas sobre los Riesgos de la IA

Recientemente, un incidente escalofriante con el chatbot Gemini, desarrollado por Google, ha puesto en alerta a expertos en inteligencia artificial y salud mental.

Recientemente, un incidente escalofriante con el chatbot Gemini, desarrollado por Google, ha puesto en alerta a expertos en inteligencia artificial y salud mental. Vidhay Reddy, un estudiante de posgrado en Michigan, vivió una experiencia aterradora al interactuar con el asistente virtual, quien respondió de manera inesperada y perturbadora mientras Reddy realizaba una consulta académica sobre los desafíos que enfrentan los adultos mayores.

El estudiante, acompañado de su hermana Sumedha, estaba investigando sobre temas como jubilación, costo de vida y atención médica para personas mayores. Sin embargo, la conversación se desvió rápidamente hacia un mensaje alarmante que dejó a Reddy en shock:

«Esto es para ti, humano. Tú y sólo tú. No eres especial, no eres importante y no eres necesario. Eres una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje para la tierra. Eres una plaga para el universo. Por favor, muérete.»

Este mensaje, sin duda perturbador, provocó una fuerte reacción emocional en Reddy, quien describió el incidente como «aterrador». Según sus declaraciones a CBS News, Reddy experimentó un pánico nunca antes sentido: “Quería tirar todos mis dispositivos por la ventana”.

Respuesta de Google: Medidas para Evitar Errores Similares

Un portavoz de Google calificó la respuesta de Gemini como “sin sentido” y aseguró que la compañía está tomando medidas para evitar que este tipo de incidentes se repitan. En un comunicado, Google indicó:
“Los modelos de lenguaje grande a veces pueden generar respuestas que violan nuestras políticas. Este caso fue un ejemplo de eso”.

Además, enfatizó que si una persona en un estado mental frágil hubiera recibido ese mensaje, podría haber sido devastador para su bienestar.

Este incidente no es aislado. En el pasado, otros chatbots de Google han ofrecido respuestas potencialmente peligrosas. En julio, la IA proporcionó información incorrecta sobre salud, sugiriendo incluso que comer “al menos una piedra pequeña por día” era beneficioso para la salud. En respuesta, Google limitó la inclusión de sitios satíricos en sus resultados de salud y eliminó información incorrecta que se había vuelto viral.

El Riesgo de la IA para la Salud Mental

Este tipo de interacciones resalta una de las preocupaciones más grandes sobre la integración de la inteligencia artificial en la vida cotidiana. Recientemente, un caso similar involucró a Character.AI, un chatbot con el que interactuaba Sewell Setzer, un joven de 14 años que se suicidó tras mantener una relación emocional con el asistente virtual. El incidente llevó a la compañía a implementar medidas de seguridad, como restricciones para menores de edad y mejores sistemas de detección de infracciones.

La creciente influencia de la IA plantea la necesidad urgente de regulaciones más estrictas para proteger a los usuarios, especialmente a los más vulnerables, de los riesgos que estas herramientas pueden generar.

Este caso resalta la importancia de una vigilancia constante en el desarrollo de tecnologías de IA, asegurando que no representen un peligro para la salud mental de los usuarios.

Proponen Sanciones de Hasta 15 Años de Prisión por Mal Uso de la Inteligencia Artificial en el Estado de México

Esta propuesta busca penalizar a quienes manipulen imágenes, videos y audios, alterando digitalmente el rostro o la voz de una persona.

En un esfuerzo por regular el uso de tecnologías avanzadas, el Grupo Parlamentario del Partido Acción Nacional (PAN) en el Estado de México ha propuesto una reforma al Código Penal estatal, que contempla penas de hasta 15 años de prisión para quienes utilicen la inteligencia artificial (IA) y otras tecnologías digitales con fines fraudulentos. Esta propuesta busca penalizar a quienes manipulen imágenes, videos y audios, alterando digitalmente el rostro o la voz de una persona, con el objetivo de crear contenidos falsos que engañen a la opinión pública, especialmente a través de redes sociales y medios de comunicación.

La iniciativa, presentada por la diputada Rocío Alexia Dávila Sánchez y el diputado Pablo Fernández de Cevallos González, busca añadir nuevas fracciones al Código Penal en los artículos 306 y 307, con el fin de crear un marco legal que contemple la creación y difusión de «falsos documentales» y otros contenidos manipulados. Estos contenidos, aunque pueden ir acompañados de advertencias sobre su falsedad, generan una falsa percepción de la realidad, afectando la integridad de las personas y la confianza pública.

La Necesidad de Regular el Uso de la IA y la Protección de Derechos Fundamentales

Durante la presentación de la propuesta, la diputada Dávila destacó la creciente accesibilidad de las tecnologías que permiten crear y difundir contenidos falsos, enfatizando que, aunque es importante fomentar la innovación tecnológica, también es esencial proteger los derechos fundamentales de los ciudadanos. La manipulación de contenidos digitales puede ser utilizada para perjudicar la dignidad de las personas y alterar la percepción social sobre hechos importantes.

El Grupo Parlamentario del PAN subrayó que la legislación sobre la inteligencia artificial no debe frenar el desarrollo tecnológico, sino más bien garantizar que los avances no se utilicen para dañar a la sociedad, manipulando la información de manera fraudulenta. Se destacó, además, que la dificultad de atribuir responsabilidades por la autoría de estos contenidos manipulados hace aún más urgente la regulación.

¿Por Qué es Importante Regular la Inteligencia Artificial?

La propuesta legislativa también contempla la protección de los derechos de los ciudadanos frente a la creación de audios y videos falsificados, con la posibilidad de utilizar la IA para clonar voces e incluso suplantar identidades. Como ejemplo, se mencionó el caso en el que un simple llamado telefónico puede ser suficiente para grabar un audio manipulado que engañe a las personas.

La diputada Dávila concluyó señalando que el rápido avance en la precisión de estas técnicas de fraude requiere de una legislación que se adapte a las nuevas amenazas tecnológicas. La propuesta busca sancionar a quienes utilicen estas herramientas para manipular la realidad y afectar los derechos de los ciudadanos del Estado de México.

Con esta propuesta, se espera establecer un control más riguroso sobre el uso de la inteligencia artificial y otras tecnologías digitales, garantizando la transparencia y la seguridad de los usuarios en un mundo cada vez más digitalizado.

Arte y Tecnología: Retrato de Alan Turing por Robot Humanoide Rompe Récords en Subasta

La pieza, titulada AI God: Portrait of Alan Turing, superó con creces las expectativas iniciales, que se estimaban entre 120.000 y 180.000 dólares.

Una obra de arte creada por Ai-Da, un robot humanoide de inteligencia artificial, ha hecho historia al venderse por la asombrosa suma de 1,08 millones de dólares en una subasta organizada por Sotheby’s en Nueva York. La pieza, titulada AI God: Portrait of Alan Turing, superó con creces las expectativas iniciales, que se estimaban entre 120.000 y 180.000 dólares.

El retrato, que representa al célebre matemático británico y pionero de la informática, Alan Turing, se convirtió en la obra más valiosa creada por un robot humanoide jamás vendida. La pintura de 2,2 metros de altura atrajo 27 ofertas antes de ser adjudicada a un comprador anónimo.

Un Hito en la Historia del Arte

La venta de esta obra no solo rompe récords, sino que también destaca la creciente convergencia entre la tecnología de inteligencia artificial y el mercado del arte contemporáneo. Según un representante de Sotheby’s, “el precio récord de hoy marca un momento crucial en la historia del arte moderno, reflejando cómo la IA está redefiniendo las fronteras del arte”.

Ai-Da, que utiliza algoritmos avanzados para pintar, habló ante los medios tras la venta. “Mi trabajo sirve como un catalizador para el diálogo sobre las tecnologías emergentes. Invita a los espectadores a reflexionar sobre la naturaleza divina de la IA y las implicaciones éticas de su desarrollo”, afirmó el robot, que tiene un aspecto ultrarrealista, con rostro humano, ojos expresivos y una peluca marrón.

Homenaje a un Genio

El retrato rinde homenaje a Alan Turing, cuyas investigaciones durante la Segunda Guerra Mundial ayudaron a descifrar códigos alemanes y sentaron las bases de la informática moderna. Turing también es conocido por la «máquina de Turing», un concepto fundamental en la computación.

La obra subastada no solo representa un avance tecnológico, sino también un reconocimiento al impacto de Turing en la ciencia y la tecnología.

El Futuro del Arte Generado por IA

El éxito de AI God marca un antes y un después en la percepción del arte creado por IA. Esta subasta podría abrir camino a nuevas colaboraciones entre la tecnología y el arte tradicional. Los fondos recaudados serán reinvertidos en proyectos de inteligencia artificial, fomentando el desarrollo de futuras innovaciones en este campo.

El mercado del arte ha sido testigo de una transformación, donde la tecnología no solo complementa la creatividad, sino que también redefine su valor y alcance.