Speakers
¡Conoce a nuestros Speakers!
¿Cómo hemos seleccionado a nuestros speakers?
MÉTRICAS DEL PROCESO
Os compartimos algunos números que pueden resultar de interés respecto al proceso.
TOTAL DE PROPUESTAS RECIBIDAS
Se han recibido un total de 306 propuestas de 242 speakers diferentes distribuidos entre los siguientes tags:
-
- Business Agility & Product 44
- Change Management 38
- Agile Frameworks and methods 36
- Culture 34
- Coaching y facilitación 31
- Processes and tools 31
- Leadership 28
- Agile Management 28
- Agile for non IT 22
- Software Crafting 14
y distribuidos entre los siguientes formatos
-
- Sesiones 238
- Workshops 68
EVALUACIONES
Comité evaluador:
-
- Equipo organizador CAS 2024: 7 personas
- Junta directiva Agile Spain: 4 personas
- Comunidad Agile: 30 personas
Cada sesión fue evaluada y comentada por entre 5 y 7 personas de diversos contextos.
Sesiones por rango de puntuaciones:
Rango de puntuaciones |
Charlas |
Workshops |
Entre 4 y 5 puntos |
27 |
4 |
Entre 3,5 y 4 puntos |
74 |
16 |
Entre 3 y 3,5 puntos |
82 |
24 |
Menos de 3 puntos |
55 |
24 |
SELECCIÓN
- Se han aceptado 60 sesiones presentadas entre 78 speakers distintos.
- 18 Workshops
- 42 Charlas
FEEDBACK
A todas las solicitudes no consideradas se les ha dado la posibilidad de solicitar feedback.
Se ha escrito y enviado feedback personalizado a partir de los comentarios del comité evaluador para 53 solicitudes.
¿CÓMO HA SIDO EL PROCESO?
REVISIÓN Y EVALUACIÓN PROPUESTAS
Desde la organización se quiere prestar especial atención a la revisión de las propuestas que maximicen la calidad del evento y el resultado para las personas.
Siguiendo el propósito de aumentar la calidad del evento y la experiencia de los participantes, se dedicará especial atención a la revisión de las propuestas. Teniendo en cuenta evaluaciones del equipo interno organizador y opiniones de personas referentes en el sector ajenas a la organización.
Por ello, este año se requerirá más información de lo habitual.
Se evaluará cada propuesta teniendo en cuenta criterios como practicidad, experiencia real, innovación, experiencia del ponente, que el tema no esté duplicado, el detalle y la calidad..etc.
Como ejemplo de evaluación de los workshops* se tiene en cuenta específicamente:
Puntaje general (25%):
Que la descripción sea completa y entendible y que deje claro el objetivo y la temática de manera general y cómo será la experiencia para el asistente. Además, apoyarse en la revisión del elevator pitch del ponente.
Experiencia del ponente en general y/o en relación con esta charla (25%):
Número de veces que el ponente ha impartido éste ws/charla.
Número de veces y/o variedad de eventos en los que el speaker acredita haber participado.
Originalidad (25%):
Que tan frecuente esta temática ha sido abordada en otros eventos de agilismo, bien porque el evaluador lo ha vivido en primera persona o lo ha visto como referencia en otros eventos.
Práctico y real (25%):
Que los participantes saquen algo que tenga aplicabilidad práctica en tu entorno real y en el corto plazo, sin muchas barreras, ni muchos impedimentos para trasladarlo al día a día como agilista.
Que sea relevante con el propósito de la CAS.
* Para las charlas es bastante parecido, salvo alguna puntualización concreta sobre el tema práctico.
Las propuestas aceptadas y rechazadas serán notificadas, Al recibir la respuesta se podrá solicitar feedback de forma transparente para que pueda tener claridad del cómo se han aplicado los criterios a la propuesta.
¿CÓMO SERÍA LA PROPUESTA AL CALL FOR PAPERS IDEAL?
Mientras trabajamos en el feedback que entregaremos a los participantes que lo han solicitado, nos hemos preguntado internamente: ¿cómo sería la propuesta ideal? ¿Qué características tenían aquellas que hemos valorado más positivamente? ¿Qué detalles resultaron especialmente útiles para realizar la evaluación?
Público destinatario
En primer lugar, es fundamental tener en cuenta el público al que va dirigido tu propuesta. Estás escribiendo para un equipo evaluador que, posiblemente, no te conozca ni te haya escuchado antes. Debes tener esto en mente al redactar tu propuesta.
Nivel de detalle
Es crucial proporcionar la información necesaria para que los evaluadores puedan determinar qué tan interesante es tu propuesta. Además de explicar qué quieres contar, debes describir cómo planeas exponer tu idea.
Normalmente, incluimos un espacio para la descripción de la sesión y otro para que detalles aspectos más prácticos. Aprovecha al máximo cada uno de estos espacios para que los evaluadores puedan conocerte mejor y no seas descartado por falta de información.
Sustento en casos reales
Si vienes a presentarnos un caso real o un nuevo framework, nos interesa que lo respaldes con evidencia. Explícanos en qué te has basado, qué evidencias tienes de que el caso ha sido exitoso, el volumen de equipos o personas involucradas, etc. Hemos recibido muchas propuestas que describen experiencias novedosas, pero sin esta información es difícil medir la calidad de la herramienta o idea que deseas compartir con la audiencia.
Elevator pitch
Esta es una herramienta nueva que hemos incorporado. Si eres agilista, tienes un caso de éxito, o quieres hablar de un marco o taller que te ha funcionado muy bien en otro contexto, convéncenos con un video de 30 segundos, como si estuviéramos juntos en un ascensor. ¿Por qué deberíamos elegir tu sesión?
Enlaces a experiencias anteriores
El equipo evaluador también revisa la experiencia del ponente. No solo se valora cuántas charlas has dado, sino también tus capacidades de comunicación. Tanto los enlaces a experiencias anteriores como el elevator pitch han sido fundamentales para evaluar la habilidad de los speakers seleccionados. La falta de estos elementos ha sido uno de los puntos de mejora más mencionados por los evaluadores, y ha llevado a que muchas propuestas recibieran menos puntos.
Coherencia en la información
Contamos con un campo para que indiques cuántas veces has dado la charla en el pasado y otro para que detalles tu experiencia previa como ponente. Hemos notado inconsistencias entre la información proporcionada en ambos campos. Asegúrate de que la información sea coherente y precisa.
Dedicación a la presentación
Hemos recibido propuestas en las que claramente se ha dedicado tiempo, cuidado, reflexión y coherencia. Otras, en cambio, han sido excesivamente escasas en información. El esfuerzo que pongas en presentar un paper bien elaborado, entendiendo que al otro lado hay un equipo evaluador voluntario que intenta conocerte, se nota y se agradece.
En conclusión
Si el equipo evaluador no cuenta con suficiente información de calidad para emitir un juicio o puntuar la propuesta, esta perderá puntos, aunque la idea sea muy interesante. Es fundamental que sepas transmitir la información relevante en tu propuesta.
BUENOS EJEMPLOS DE PROPUESTAS RECIBIDAS:
¿CÓMO HACEMOS LA SELECCIÓN DEL LISTADO FINAL?
La selección final de sesiones es una tarea de gran responsabilidad que realizamos con mucho cuidado y exhaustividad.
Comenzamos con las puntuaciones otorgadas por nuestros evaluadores.
Cada track cuenta con entre 5 y 7 evaluadores diferentes, tanto externos como internos. Todos los evaluadores revisan el material, asignan una puntuación y justifican su evaluación para proporcionar retroalimentación al postulante y facilitar nuestra decisión final.
Primer listado de descarte:
Se lleva a cabo un primer filtro para descartar las sesiones que no han obtenido una puntuación suficiente, permitiendo a los postulantes saber con anticipación que no serán considerados sin tener que esperar todo el proceso.
Primera vuelta:
Seleccionamos las sesiones mejor valoradas en cada track.
En todo momento revisamos que la lista final mantenga un equilibrio en la variedad de temas propuestos y niveles (avanzado o inicial).
En caso de que un ponente tenga varias charlas con puntuaciones altas, preferimos seleccionar la mejor de cada uno para fomentar la diversidad en la comunidad. Si es necesario, consultaremos al ponente cuál de sus charlas prefieren que se considere sin afectar el equilibrio de la lista.
Siguientes vueltas:
Siguiendo el orden de puntuaciones, completamos los slots disponibles avanzando en todos los tracks simultáneamente, revisando cada propuesta para asegurar su coherencia con el conjunto.
Revisión final:
Una vez que estamos satisfechos con la conformación final, revisamos individualmente el listado para obtener la aprobación final del equipo. Buscamos posibles inconsistencias, desbalances o dudas. Luego, comenzamos a notificar a cada ponente sobre su aceptación.
Comunicación a los no aceptados:
Se informa a los postulantes cuyas charlas no han sido aceptadas, dejando un remanente en espera hasta que los ponentes de las sesiones aceptadas confirmen su participación.
Reserva:
Para mitigar el riesgo de cancelaciones de última hora, dejamos algunas sesiones bien puntuadas en reserva. Estas no serán aceptadas inicialmente, pero se informará a los ponentes. Priorizamos a aquellos bien puntuados que sabemos estarán en la conferencia y que tienen una charla suficientemente preparada para ser presentada en caso de ser necesario a último momento.
EQUIPO DE VALIDACIÓN
¿Quienes son las personas de la comunidad que están evaluando las sesiones y workshops? Antes que nada, comentamos que además de los criterios de validación unificados compartidos en esta página, velamos cuidadosamente porque el equipo validador no tenga conflictos de intereses con las charlas que validan. No permitimos que validadores revisen charlas que corresponden al mismo track que donde pudieron haber presentado sus propias propuestas o de sus compañeros.
Validadores externos:
- Silvia Sánchez Hernández
- Maria Sierra
- Javi Martin de Agar
- Ana Nielfa
- David Tardini
- Alex Ballarin
- Allan Torres
- Juanma Gómez
- Verónica Rivas
- Raul Herranz
- Iria Rivero
- Verónica Moreno
- Miguel Tato
- Carlos Matías
- Toni Navarro
- Victor Fairén
- Hans Muñoz Tak
- Irene Rerdanowsky
- Santi Iricibar
- Cova Saras
- Toño de la Torre
- Faustino Hermo
- Jesús Lara
- José Antonio «Pepe» González
- Bárbara Fernández
- Xavier Palmero
- Xavier Albaladejo
- Naim Raja Díaz
- Antonio Pintor
- María Alemán
Validadores internos (Equipo organizador y AAS)
- Alessandra Rivolta
- Antonio Lorente
- Carla Krieger
- Javier Hernández Braña
- Esther Gala
- Alberto Serrano
- Alejandro Martínez Cuesta
- Mauricio Contrera
- Félix Bragado
- Pablo Salvador
- William Guevara