Edicion 2026

Edición 2026

15 de abril online - 16 de abril en Montevideo, Uruguay

TestingUy 2026

El 15 y 16 de abril tendrá lugar la decimosegunda edición de TestingUy, un evento para testers, desarrolladores, analistas, diseñadores, product owners, managers, cualquier interesado en pruebas y calidad de software.

El día 1, once actividades se desarrollarán completamente en línea y el día 2 nos encontraremos en la Torre de las Telecomunicaciones de Montevideo, para disfrutar de trece actividades con referentes locales e internacionales del mundo testing, mucho networking y más.

Desliza para ver la agenda completa. El acceso es gratuito para todos los asistentes, previa registración.

TestingUy ha sido declarado de interés por las siguientes instituciones:

ANII
Ministerio de Educación y Cultura
Presidencia de la República
Uruguay Technology

¡2 días a puro testing!

Speakers de diez países, con especial énfasis en Latinoamérica, dirán presente a lo largo de las 24 actividades que tendrán lugar este año: dos keynotes, cuatro talleres, un panel, dos open spaces y quince charlas.

Las diferentes instancias abarcan temas como IA, automatización,  performance, seguridad, UX, accesibilidad, arquitectura, testing basado en riesgos y diversas power skills, enfocado en un público amplio tanto en experiencia como en conocimiento

¡Inscripciones abiertas!

Registrate sin costo para las actividades presenciales de TestingUy 2025.

Agenda día 1 - online

ACTIVIDADES

15 de abril – Online

10:00 - 10:05

BIENVENIDA

Aníbal Banquero (CES), Guillermo Skrilec (QAlified), Gustavo Guimerans (CES), Yanaina López (QAlified)

10:05 - 10:50 | Actividad en Inglés

KEYNOTE: The Ahh Test

Rosie Sherry

-Actividad en inglés-

The world is changing and we need new ways to think about what it means to ship a good product. The models of the past have helped us get to where we are, but when the world is in flux and chaos, what does it mean for the people who are building?

As quality people, we are challenged:
– we know we need to shift-left, right and everywhere
– most of us adopt our own version of being agile-ish
– test automation has shifted to developers and AI
– systems thinking is essential to understand the unavoidable complexity we face
– we need to find confidence to make the best decisions possible

I’d like to introduce you to the Ahh Test, it’s something we’ve been experimenting with internally within the MoTaverse to make decisions on what to build.

Whenever we want to build something, we ask whether it passes that Ahh Test. This is something anyone in the team can contribute to. In any meeting. In any Slack message. In any rant, personal thought or customer feedback.

If it doesn’t pass the Ahh Test, we shouldn’t build it, because it will only shift problems further down the line.

Join this session to:
– Learn what the Ahh Test is
– Why it matters
– Practical ideas and tactics on how you could adopt it

10:55 - 11:25

CHARLA: De Tester a Quality Engineer en la era de la IA

Daniella Andrea Rojas Pacheco

La inteligencia artificial está transformando la forma en que desarrollamos software… y también el rol del tester.

Hoy, el desafío ya no es solo ejecutar pruebas o automatizar escenarios, sino integrar la calidad desde el inicio, participar en decisiones técnicas y utilizar la IA como aliada estratégica. En este contexto, el paso de tester a Quality Engineering no es un cambio de título, sino de mentalidad.

En esta charla exploraremos cómo la GenAI redefine tareas tradicionales, qué oportunidades abre para potenciar la productividad y creatividad del tester, y cuáles son las habilidades técnicas y humanas que se vuelven críticas en esta nueva etapa.

Compartiré enfoques prácticos para incorporar IA con propósito, sin perder criterio ni responsabilidad profesional, y cómo evolucionar de validar entregas a co-crear valor dentro de equipos ágiles.

Porque en la era de la IA, la calidad no es una fase del proceso. Es una estrategia compartida.

10:55 - 13:10

OPEN LAB: ArtificialQA: Aprende a testear agentes de IA en una sesión guiada y práctica

Natalia Nario, Guzmán Pieroni

Conoce y prueba la herramienta que evalúa la calidad de agentes conversacionales. Te mostramos cómo conectar un agente, definir casos de prueba, ejecutar pruebas automáticas y evaluar respuestas con jueces inteligentes.

11:30 - 12:00

CHARLA: Agentes IA para Testing: Generación Automática de Pruebas BDD desde Fuentes Heterogéneas

Beatriz Pérez, Eneko Pizarro

Las pruebas web son fundamentales para validar aplicaciones de extremo a extremo, desde la interfaz de usuario hasta el backend. Sin embargo, son costosas de crear y mantener. Nuestra propuesta previa a la IA siempre siguió el mismo camino: pruebas fáciles de entender por el usuario escritas en lenguaje natural siguiendo Behaviour Driven Development (BDD), donde se utiliza Gherkin como lenguaje de especificación de pruebas (muy cercano al lenguaje natural) y código mantenible siguiendo patrones como Page Object Model (POM).

Sin embargo, sigue siendo costoso escribir las pruebas en lenguaje natural para el cliente final, además su mantenimiento sigue siendo costoso ya que quedan obsoletas con cambios en la interfaz. Nuestra propuesta utiliza IA generativa y agentes para la creación y mantenimiento de pruebas E2E, de la siguiente forma:
– Genera especificaciones de pruebas en Cucumber Gherkin de forma automática a partir de fuentes heterogéneas: manuales, vídeos, actas de reunión, la propia web
– Automatiza la implementación mediante código (actualmente en Java/Selenium, pero con una arquitectura extensible a Cypress y Playwright)
– Revisa cambios en la interfaz para proponer mejoras a los casos de prueba existentes
– Se integra en tu proyecto de testing mediante el protocolo MCP.

Presentaremos nuestra propuesta, la cual hemos validad con casos de estudio y un proyecto industrial real. Discutiremos desafíos, problemas encontrados y trabajo futuro.

12:05 - 12:35

OPEN SPACE by Testing Channel TV

Gastón Marichal, Marcos Manicera

12:40 - 13:10

CHARLA: Hardhat y la Calidad en Smart Contracts

Matías Magni

En Web3, un error de código es una pérdida definitiva. Esta sesión técnica aborda cómo utilizar Hardhat para construir contratos inteligentes robustos, seguros y eficientes.

Exploraremos el flujo de trabajo profesional desde el desarrollo local hasta el despliegue: aprenderás a realizar debugging avanzado, ejecutar tests de cobertura total y automatizar análisis de seguridad con herramientas como Slither. Además, veremos cómo optimizar el consumo de gas y garantizar la auditabilidad del código.

Una guía práctica y directa para desarrolladores y QAs que buscan elevar sus estándares de ingeniería y proteger sus protocolos frente a vulnerabilidades críticas. La calidad no es opcional; es tu mejor línea de defensa.

13:10 - 14:00

ALMUERZO

14:00 - 14:30

CHARLA: Principios de Web Performance: cómo acelerar eCommerce para mejorar conversión y experiencia

Maximiliano Vázquez

En el ecosistema digital actual, donde la competencia está a un clic de distancia, el rendimiento web se ha transformado en un factor crítico para el éxito de cualquier sitio de eCommerce. Esta charla propone un recorrido por los principios clave de la performance web, abordando tanto los fundamentos técnicos como su impacto directo en la conversión, el posicionamiento y la retención de usuarios.

Se presentarán las herramientas más efectivas para medir y diagnosticar problemas de velocidad, con foco en cómo interpretarlas y priorizar mejoras. También se analizarán los factores que más influyen en la experiencia de usuario, desde la carga inicial hasta la interacción completa, aplicados al contexto real del comercio digital.

Con una mirada práctica respaldada por más de nueve años de experiencia en la optimización de sitios de alto tráfico, esta charla busca ofrecer claridad, foco y herramientas accionables para equipos que buscan llevar su performance al siguiente nivel.

14:35 - 15:05

CHARLA: Pruebas de API Rest con JUDO Framework

Felipe Farías

Judo es un nuevo framework para construir fácilmente prueba de API Rest utilizando Gherkin, sin escribir código ni lógicas Judo trae a Python toda la facilidad del mítico Karate Framework para Java. En esta charla conocerás de que trata, como puede ayudarte a simplificar tus pruebas de api rest y opciones realmente útiles.

15:10 - 15:40

PANEL: Latinoamérica testea: comunidades desafíos y futuro

Moderan: Aníbal Banquero, Yanaina López|Panelistas: Karla Mata, Ruben Aguirre, Marcela Mellado, Alexis Herrera, Angie Massiel

En este panel, referentes de diferentes comunidades de testing de software de Latinoamérica intercambiarán sobre la historia y gestión de sus respectivos encuentros, las colaboración entre diferentes comunidades y los principales desafíos pensando en la disciplina a futuro.

Participan las comunidades de Bolivia, Chile, Colombia, Costa Rica, Venezuela y Uruguay.

15:45 - 16:15

CHARLA: Más allá de la UI: probando lógicas empresariales complejas en los sistemas corporativos

Karen Joselin Morales Carreño

En los sistemas empresariales, como las plataformas de nóminas, impuestos y finanzas, muchos defectos no son visuales, sino lógicos. En otras palabras, una pantalla puede parecer correcta porque vemos y revisamos la interfaz de usuario, y a veces nos centramos únicamente en eso, mientras que las reglas de negocio subyacentes generan silenciosamente resultados financieros incorrectos.

En esta sesión se analiza cómo se aplican los principios fundamentales de las pruebas a flujos de trabajo complejos del mundo real. A través de casos prácticos relacionados con errores en el cálculo de impuestos, errores de horas extra en la nómina y comportamientos engañosos del sistema, examinaremos ejemplos reales de cómo los testers pueden ir más allá de la validación superficial y adoptar enfoques de pruebas basados en el riesgo y en la lógica.

Nuestro trabajo como ingenieros de calidad va más allá de esto y, en muchos casos, nos exige saber mucho más sobre cálculos, impuestos, etc.
Los asistentes aprenderán técnicas prácticas para validar reglas de negocio, detectar riesgos financieros ocultos y mejorar la calidad de los defectos en entornos complejos.

16:20 - 17:00

CHARLA DE CIERRE: Más allá del síntoma: debugging para testers

Nadia Cavalleri

Como psicóloga sé que no hay que quedarse en el síntoma. Como tester, tampoco. Herramientas y técnicas para debuggear bugs y pasar del «no funciona» a entender por qué falla.

Agenda día 2 - presencial

CHARLAS

16 de abril – Torre de las Telecomunicaciones de Antel

9:00 - 9:45

ACREDITACIÓN Y DESAYUNO

9:45 - 10:00|Auditorio Mario Benedetti

BIENVENIDA

Aníbal Banquero (CES), Guillermo Skrilec (QAlified), Mariana Travieso (CES), Yanaina López (QAlified)

10:00 - 10:45|Auditorio Mario Benedetti

KEYNOTE: Flotas Autónomas, Equipos Imparables: El Amanecer de la Era Agentic

Carlos Gauto

Imaginá un mundo donde las pruebas no se escriben: se descubren, se adaptan y se perfeccionan solas. Donde el equipo humano deja de luchar contra la complejidad y empieza a soñar con la excelencia. Donde la velocidad, la cobertura y la inteligencia no tienen techo porque ya no dependen de tu tiempo ni de tu atención constante.

Ese mundo se abre cuando dominás el Context Engineering, la habilidad maestra que transforma prompts frágiles en agentes verdaderamente autónomos y alineados con el negocio.

Ese mundo ya no es ciencia ficción. Es la Era Agentic. Y no es algo que te va a pasar. Es algo que vos podés construir, liderar y convertir en ventaja competitiva irreversible.

10:50 - 11:30|Auditorio Mario Benedetti

Medir no es gratis (y a veces sale carísimo)

Mariana Travieso, María Elisa Presto

En software usamos muchas métricas para seguir proyectos, productos y equipos: defectos, cobertura, avance, productividad, incidentes, entre otras. En teoría, esos números ayudan a entender cómo va el trabajo y cómo está el producto.

Pero medir no es gratis. Medir implica tiempo para registrar datos, mantener herramientas, hacer reportes y explicar resultados. Y a veces puede salir caro: cuando los números se transforman en objetivos, se pueden forzar resultados, optimizar métricas en lugar de entender el producto o incluso tomar decisiones equivocadas basadas en datos que no cuentan toda la historia.

Muchos testers (especialmente quienes recién empiezan) entran a equipos donde las métricas ya existen y terminan marcando cómo se testea. A partir de ejemplos reales, algunos cercanos a historias de terror y otros casos de éxito, esta charla propone mirar el testing dentro del sistema en el que ocurre: equipos, prácticas, objetivos e incentivos. La idea es abrir la cabeza y pensar qué estamos midiendo, para qué lo hacemos y cuándo medir realmente ayuda… y cuándo puede salir más caro de lo que parece.

10:50 - 12:40|Sala Idea Vilariño

Del Bug al Propósito: Construyendo Cultura de Calidad

Johana Ríos, Gastón Cabana

En una industria técnico donde solemos priorizar herramientas y métricas, a menudo olvidamos el motor que sostiene (o destruye) la calidad, las personas. Un bug crítico en producción rara vez es solo un error de código, suele ser síntoma de una conversación evitada, una falta de propósito claro o un sistema de responsabilidad difuso. Este workshop propone una pausa estratégica para mirar lo que ocurre detrás de los bugs.

A través de una metodología que integra el liderazgo transformacional, la PNL y la psicología organizacional, transitaremos desde la reflexión individual hasta la acción sistémica. Analizaremos casos reales para identificar cómo la seguridad psicológica y la motivación intrínseca impactan directamente en el producto final, transformando la mejora continua de un concepto teórico a una mentalidad compartida.

El objetivo es que cada participante trascienda el «hacer testing» para empezar a enfocarse en calidad. Se llevaran herramientas concretas para ser aplicadas inmediatamente en sus equipos. Es una invitación a liderar un cambio de mindset, conectando los procesos técnicos con el factor humano que les da realmente sentido.

11:35 - 11:55|Auditorio Mario Benedetti

Reviviendo 12 años a puro testing con Testing Channel TV

Gastón Marichal, Marcos Manicera

12:00 - 12:40|Auditorio Mario Benedetti

No confíes en la IA (hasta testearla)

Natalia Nario, Guzmán Pieroni

¿Qué tan confiable es una IA que evalúa otra IA? Cuando los modelos comparten sesgos y limitaciones, el riesgo de validaciones incorrectas es real. Es la paradoja moderna de «¿quién vigila a los vigilantes?», aplicada al testing.

En esta charla exploramos cómo calibrar evaluadores de IA— y por qué el humano sigue siendo imprescindible en cada paso. La IA propone, pero el criterio final sigue siendo nuestro.

No se trata de IA reemplazando al tester. Se trata de testers que evolucionan para validar sistemas cada vez más complejos.

12:40 - 14:10

ALMUERZO LIBRE

14:10 - 14:40|Auditorio Mario Benedetti

Después de tanto tiempo automatizando… ¿por qué todavía no logramos que funcione?

Javier Re

Después de años invirtiendo en automatización, muchos equipos siguen enfrentando los mismos problemas: suites difíciles de mantener, baja confianza en los resultados y escaso impacto real en la calidad del producto.

Entonces la pregunta es inevitable: ¿por qué todavía no logramos que funcione?

Esta charla propone un cambio de enfoque: entender que la automatización no falla por las herramientas, sino por cómo se integra en el sistema de trabajo del equipo. A partir de evidencia de la industria (World Quality Report, ISTQB, DORA), se analizan factores clave como el ownership compartido, la priorización basada en riesgo y la integración efectiva en el flujo de desarrollo.

A partir de estos conceptos, se presenta un enfoque práctico para mejorar la adopción de la automatización, enfocado en decisiones de diseño, integración en pipelines y colaboración entre roles.

Además, se explora el rol de la inteligencia artificial como facilitador en este contexto. Lejos de reemplazar la estrategia, la IA puede ayudar a reducir la fricción en tareas como la generación, mantenimiento y análisis de tests, especialmente en entornos donde la velocidad de cambio del software continúa creciendo.

La charla combina evidencia de la industria con experiencias prácticas, y está orientada a equipos que ya automatizan pero buscan obtener resultados más consistentes y sostenibles.

14:10 - 15:50|Sala Idea Vilariño

Crea tu primer agente de testing con Tero open source

Federico Toledo, Roger Abelenda

La inteligencia artificial ya está presente en el trabajo del tester, pero muchas veces queda limitada a prompts aislados que no se integran al flujo del equipo. En este taller vamos a ir más allá: crearemos un agente de IA para testing desde cero, sin necesidad de programar, usando Tero, una plataforma open source para diseñar, compartir y ejecutar agentes.

Partiremos de problemas típicos del testing para diseñar un agente con propósito claro, por ejemplo entender o generar documentación, crear diagramas a partir del código, derivar casos de prueba desde notas de sesiones exploratorias, o apoyar la automatización. Veremos cómo definir su comportamiento, darle contexto y conocimiento propio mediante documentación (RAG) y conectarlo con herramientas externas vía MCP para que no solo “responda”, sino que también pueda accionar y generar resultados útiles.

Durante el taller construiremos juntos un agente y lo probaremos con casos reales mientras lo ajustamos. El foco no está en la herramienta, sino en el criterio: cómo pensar agentes que amplifiquen el impacto del testing, hagan visible el valor de calidad e integren IA de forma práctica y responsable en el trabajo cotidiano. Te llevarás una base clara para crear tus propios agentes y empezar a usarlos.

14:45 - 15:15|Auditorio Mario Benedetti

Inclusión y diversidad desde el testing

Daniel Rojas, Juan Pablo Aguirre

En un mundo donde el software define experiencias, decisiones y accesos, los testers tenemos una responsabilidad que va más allá de lo técnico. ¿Estamos probando solo para que «funcione», o también para que funcione para todas las personas?

Esta charla propone una mirada profunda y práctica sobre cómo el testing puede (y debe) detectar sesgos, exclusiones y barreras que muchas veces se escapan al desarrollo. Desde formularios que asumen tu género, hasta apps que no consideran problemas de accesibilidad visual, los errores más importantes no siempre son los que lanzan una excepción.

Hablaremos de casos reales donde el testing fue clave para evitar daño reputacional, pérdida de usuarios o discriminación directa. También exploraremos cómo testear con empatía, qué preguntas hacer, y cómo llevar estos temas a la conversación con Product, Diseño y Desarrollo sin parecer “el que complica”.

No necesitás ser especialista en inclusión. Solo necesitás ganas de abrir los ojos. Porque a veces, el peor bug es el que no te afecta a vos… y por eso no lo viste.

Una invitación a testear no solo con criterios, sino también con conciencia.

15:20 - 15:50|Auditorio Mario Benedetti

Neutrotest: Probando más allá del Pass/Fail mediante Aserciones Neutrosóficas

Osmanys Pérez

Los frameworks de testing tradicionales se limitan a resultados binarios: PASS o FAIL. Pero muchos escenarios reales son más complejos: servicios en el límite del tiempo esperado, valores cercanos a un umbral o textos «suficientemente parecidos». Con aserciones binarias, todos esos matices quedan ocultos.

Neutrotest es una librería experimental de aserciones para Java que incorpora lógica neutrosófica al testing. Cada verificación se modela con tres dimensiones: verdad, indeterminación y falsedad (T, I, F). El resultado sigue siendo un test tradicional (PASS/FAIL) y se integra sin problemas en pipelines de CI, pero se generan clasificaciones adicionales como FRAGILE_PASS (éxito cercano al fallo) y BORDERLINE_FAIL (fallo cercano al éxito). Así se entiende no solo si la prueba pasó, sino con qué margen. Se integra con JUnit 5 mediante una extensión y API propia, e incluye un módulo demo. Además, permite exponer los valores T, I, F y la clasificación asociada (Neutrosophic Status) en herramientas de reporte como Allure.

En esta charla recorreremos su funcionamiento con ejemplos concretos: aserciones difusas para valores numéricos, texto, tiempos y excepciones. Veremos cómo configurar contextos (estricto, laxo, exploratorio) y cómo interpretar los resultados en Allure. El objetivo es mostrar una forma práctica de incorporar incertidumbre al análisis de pruebas, sin abandonar el ecosistema de herramientas que ya utilizamos.

15:50 - 16:30

COFFEE BREAK

16:30 - 17:00|Auditorio Mario Benedetti

La falsa sensación de calidad: cuando todo está cubierto pero algo no cierra.

Roxana Falco

En los últimos años los equipos de desarrollo incorporaron más prácticas, herramientas y automatización que nunca. Hablamos de métricas, cobertura, pipelines y, más recientemente, de inteligencia artificial aplicada al testing. Sin embargo, muchos de los problemas de calidad que enfrentamos siguen siendo similares.

Esta charla propone una mirada reflexiva: ¿y si el problema no fuera la falta de testing, sino un exceso de confianza? Confianza en los tests ejecutados, en los números que nos tranquilizan y en las herramientas —incluida la IA— que prometen cubrir los riesgos.

A partir de experiencias reales, exploraremos cómo esta confianza puede generar una falsa sensación de control y desplazar el criterio humano. La charla invita a repensar el rol del tester como agentes de cuestionamiento saludable, capaces de poner pausa y hacer preguntas incluso cuando todo parece estar bien.

16:30 - 17:35|Sala Idea Vilariño

Encontré un bug, ¿y ahora qué? Comunicación efectiva para testers

Aníbal Banquero

Encontrar un bug es solo el comienzo. Este taller explora cómo testers pueden comunicar con claridad, elegir el canal adecuado y lograr que sus hallazgos generen impacto real.

17:05 - 17:35|Auditorio Mario Benedetti

Testing para que mis agentes no hagan cualquiera

Sebastián Passaro

Un sistema de agentes no solo produce texto: también actúa. Y cuando falla, no falla «una frase», falla una decisión y eso puede disparar efectos secundarios inesperados (aprobar, enviar, borrar, etiquetar).

En este espacio voy a salir de la abstracción y teoría para mostrar un caso de sistema de agentes que operan sobre emails, cómo pueden ser abusados con inyecciones de prompt indirectas, y cómo convertir ese riesgo en una suite de pruebas repetible usando Promptfoo: casos fijos, entradas controladas y evaluación directa de salidas de los agentes (acciones/traza), validando condiciones invariantes en un plano determinista aunque las respuestas varíen.

Todo esto entre una versión vulnerable y una versión corregida del mismo sistema. La idea es que te lleves algo valioso y aplicable en la práctica para tu laburo o proyecto personal.

17:40 - 18:25|Auditorio Mario Benedetti

Cuando el generador de carga se convierte en el cuello de botella

Delvis Echeverría

En performance testing, a veces el verdadero cuello de botella no es tu aplicación: es el generador de carga. Cuando el generador se estresa, contamina la señal con picos de CPU, Memoria y otros, haciendo los resultados difíciles de interpretar.

En esta charla repaso la evolución de los generadores (procesos → threads → event-driven) y muestro un experimento controlado con el mismo escenario, comparando tres modelos, incluyendo un generador plan-based en el que he estado trabajando.

18:25 - 18:45|Auditorio Mario Benedetti

SORTEOS Y CIERRE

Aníbal Banquero (CES), Yanaina López (QAlified)

19:30 - 21:30|ThePutaMadre Bar

¡AFTER!

Auspician

GOLD Sponsors

ACTotal
CPA Ferrere
Relámpago

SILVER Sponsors

Abstracta
BIOS
Brightest
Crowdar
Kualitee
Pyxis
Uy Group

VENUE Sponsor

Antel

MEDIA Sponsors

Adolfo Blanco
DJ Academy
Kiwi Films
TestingChannelTV

Apoyan

Organizan

Hosts

 

 

 

 

 

Anibal Banquero

 

 

 

 

 

Yanaina López

Colaboradores

Ana Inés González Lamé

Diego Gawenda

Facundo de Battista

Ursula Bartram

Copyright ©2025 TestingUy. All Rights Reserved