Estudio revela que los modelos visión-lenguaje no pueden manejar consultas con palabras de negación

Un reciente estudio del MIT descubrió que los modelos de visión-lenguaje (VLM) enfrentan dificultades para comprender palabras de negación como «no» o «nunca». Esto puede ser un problema en situaciones críticas, como el diagnóstico médico, donde la interpretación errónea podría provocar errores significativos. Los VLM, entrenados para identificar objetos mediante descripciones textuales, tienden a ignorar palabras de negación.
Los investigadores crearon un conjunto de datos especializado para mejorar el rendimiento de los VLM ante palabras negativas. Aunque observaron mejoras, enfatizan que es solo un comienzo. Estas deficiencias tienen importantes implicaciones en campos donde la exactitud es crucial, como el sector médico y la fabricación, incentivando a los usuarios a cuestionar los modelos antes de adoptarlos.
Para más detalles, visite el artículo original.
¿Podemos detener la IA racista que está tomando el control de todo? Claro, pero también podríamos haber detenido el cambio climático

Las historias sobre la ineptitud de la inteligencia artificial aumentan a medida que herramientas como ChatGPT se vuelven omnipresentes. A pesar de sus beneficios, la IA desafía los límites de la ética y la justicia social. La preocupación se centra en evitar que estas tecnologías perpetúen o amplifiquen prejuicios existentes en la sociedad.
**La Guardian** destaca que, aunque hay esfuerzos para una IA justa, su implementación recuerda los esfuerzos insuficientes para frenar el cambio climático. La correcta regulación es crucial para asegurar un avance tecnológico equitativo. Reflexionar sobre estos temas es esencial para un manejo responsable de la IA en el futuro.
Fuente original: Enlace
Profesores universitarios están utilizando ChatGPT. Algunos estudiantes no están contentos.

Estudiantes de universidades, como Northeastern, expresan descontento al descubrir que sus profesores utilizan herramientas de inteligencia artificial como ChatGPT. Perciben hipocresía, especialmente después de aconsejarles no usarlas. Una estudiante, Ella Stapleton, se sintió traicionada al descubrir que su profesor empleaba IA para preparar materiales del curso.
Esta situación genera debate sobre la integridad académica. Muchos estudiantes ven esta práctica como hipócrita, mientras que los instructores defienden el uso de IA para mejorar sus habilidades docentes. Herramientas generativas de inteligencia artificial permiten a los profesores crear materiales más atractivos y eficientes, lo que podría liberar tiempo para una instrucción más personalizada.
El debate sobre el papel de estas tecnologías en el ámbito académico sigue, y la brecha entre las perspectivas de estudiantes e instructores es significativa. Puedes leer el artículo original en The New York Times.
La I.A. Venía por los Trabajos de los Radiólogos. Hasta Ahora, Solo Son Más Eficientes.

Avances en inteligencia artificial (IA) inicialmente parecían amenazar los trabajos en radiología. Sin embargo, en la Mayo Clinic, la IA se muestra como aliada, aumentando la eficiencia sin reemplazar empleos. La Dra. Theodora Potretzke, radióloga, fue clave en desarrollar una IA que reduce el análisis de imágenes de riñón, ahorrando entre 15 y 30 minutos por examen.
La implementación de IA en radiología creó debate sobre su impacto laboral. A pesar del temor de pérdida de empleo, expertos destacan que la IA está diseñada para potenciar capacidades humanas. En Mayo Clinic, médicos encuentran que la IA, lejos de desplazar, permite ser más eficientes, ofreciendo diagnósticos precisos y liberando tiempo para atender pacientes y casos complejos.
Para una lectura completa, visita el New York Times.
La IA en Preescolar Sería un ‘Desastre Inenarrable’

La Secretaria de Educación sugirió que introducir inteligencia artificial (IA) en preescolar sería «maravilloso». Sin embargo, muchos padres se oponen. Críticos sostienen que la IA, en una etapa tan temprana, podría afectar el desarrollo infantil y reducir interacciones significativas.
Defensores argumentan que la IA mejoraría experiencias educativas, pero muchos padres dudan si esta tecnología está lista para niños pequeños. Preocupa perder la conexión humana en educación y riesgo de contenido inapropiado. Expertos insisten en priorizar el crecimiento emocional y social en la infancia sobre el uso de tecnología.
Publicación: Fuente original
AlphaEvolve: Un agente de codificación impulsado por Gemini para diseñar algoritmos avanzados
A 14 de mayo de 2025, el equipo de AlphaEvolve presentó un nuevo agente de codificación impulsado por Gemini denominado **AlphaEvolve**. Este modelo integra un robusto diseño de algoritmos avanzados y versatilidad en innovación tecnológica, permitiendo desde la creación de códigos hasta generar nuevas ideas.
AlphaEvolve ha optimizado eficientemente centros de datos Google, diseño de chips y procesos de entrenamiento de IA, descubriendo y mejorando algoritmos para resolver problemas matemáticos complejos. Su despliegue potencia el ecosistema Google, proponiendo modificaciones que incrementan la eficacia operativa y mejoran los diseños de chip.
Para más información, visite el artículo original: Aquí
El halago de Nvidia a Trump gana la reversión de los límites de chips de IA y una ofensiva contra Huawei

Nvidia ha cosechado frutos tras sus esfuerzos de acercamiento a la administración Trump. EE.UU. levantó las restricciones de exportación en chips de IA y endureció medidas contra el uso de alternativas de Huawei. Durante una visita conjunta de Jensen Huang, CEO de Nvidia, y Trump a Arabia Saudita, se anunciaron inversiones para impulsar la IA.
El Departamento de Comercio revocó la «Artificial Intelligence Diffusion Rule», que limitaba la exportación de chips de IA, buscando evitar avances en China y Rusia. La medida amenazaba el liderazgo de Nvidia, que domina el 90% del mercado de estos chips. Empresas son advertidas sobre el uso del chipset Ascend de Huawei, la mejor respuesta de China ante chips Nvidia.
Para más detalles, consulte el artículo original aquí.
La Página de Inicio de Google Impulsa el Modo AI, Dejando Atrás el Botón ‘I’m Feeling Lucky’

Google ha realizado un cambio significativo en su página de inicio al reemplazar el botón «I’m Feeling Lucky» con una nueva función denominada Modo AI. Esta actualización refleja un compromiso más profundo de Google para mejorar la experiencia del usuario mediante resultados de búsqueda generados por inteligencia artificial.
El botón permitía a los usuarios llegar a un sitio web aleatorio relacionado con sus consultas, pero ahora se considera obsoleto. Con los avances en inteligencia artificial, Google busca ofrecer resultados relevantes y personalizados mediante el Modo AI, mejorando la satisfacción y el compromiso de la plataforma.
Fuente: Digital Information World
Poniendo a prueba nuestras defensas de seguridad con un nuevo programa de recompensas por errores

Anthropic lanzó un nuevo programa de recompensas por errores en colaboración con HackerOne para evaluar sus medidas de seguridad. El programa invita a investigadores a identificar vulnerabilidades en clasificaciones de seguridad no públicas, mejorando protecciones y cumpliendo con AI Safety Level-3.
Los participantes tendrán acceso anticipado a pruebas del sistema Constitucional Classifiers en Claude 3.7 Sonnet. Ofrecen recompensas hasta $25,000 por vulnerabilidades verificadas, dirigidas a expertos en seguridad deseosos de mostrar habilidades para identificar debilidades. Las solicitudes están abiertas hasta el 18 de mayo.
Fuente original: Enlace
Copilot en Windows: “Hey, Copilot!” comienza a desplegarse para Windows Insiders

Microsoft ha empezado a actualizar su aplicación Microsoft Copilot en Windows, disponible en Microsoft Store. La nueva función, «Hey, Copilot!», permite a usuarios Insiders invocar Copilot de manera manos libres, mejorando la interacción.
Para usar «Hey, Copilot!», los usuarios deben activar la función en configuraciones de la aplicación. Pueden efectuar preguntas de manera verbal, por ejemplo, «Hey, Copilot, ¿cómo estará el clima en Palm Springs este fin de semana?». Aunque solo disponible en inglés por ahora, el despliegue global es gradual. La interacción termina automáticamente tras inactividad.
Para más detalles, se recomienda consultar el artículo original.
Stability AI y Arm colaboran en el lanzamiento de Stable Audio Open Small
Stability AI, en colaboración con Arm, ha anunciado el lanzamiento de **Stable Audio Open Small**. Este modelo de IA, con 341 millones de parámetros, está optimizado para funcionar completamente en CPUs de Arm. Su diseño permite la rápida generación de muestras de audio, produciendo hasta 11 segundos en un smartphone en menos de 8 segundos.
Esta innovación destaca por facilitar la creación de audio de manera eficiente y práctica directamente en dispositivos móviles. Su enfoque en accesibilidad permitirá que tanto desarrolladores como empresas implementen fácilmente soluciones de generación de audio cotidiano. Con el código abierto, su uso podría expandirse notablemente, integrándose cada vez más en aplicaciones diarias.
Para más información, visita el artículo original en Stability AI.



