El pasado jueves 10 de noviembre se celebró el evento
VLCTESTING 2011, evento que toma el relevo de las JTS (Jornadas de Testeo de Software) y que se afianza de nuevo como el evento más importante de calidad de software y testing en la ciudad de Valencia.
El evento tuvo una muy buena acogida con un gran número de asistentes, con la consecuencia de que prácticamente en todo momento la sala de las ponencias estuvo a rebosar de gente. Esto es algo muy importante porque se traduce en que hay muchas personas que se preocupan de la calidad del software y de las pruebas, y que son conscientes de que para mejorar se deben aplicar técnicas que la garanticen. Cada vez más y más personas sufren el problema de la baja calidad en los desarrollos por lo que era cuestión de tiempo que la cultura de calidad empezase formar parte del día a día en el sector.
En un único evento estaban todos los roles implicados en el desarrollo de software, desde las organizaciones que reciben el software, hasta las factorías que lo desarrollan, programadores, analistas, testeadores, jefes de proyecto,... Todos ellos con un objetivo común: conocer mejor el mundo de la calidad del software para poder aplicarlo en sus proyectos y productos.
En cuanto a las ponencias, pues excelente, de todas hubo algo que se pudo aprender. La única pega es que quizás fue demasiado contenido para un solo día de evento… Habría que intentar ampliar un poco más el tiempo de las ponencias y distribuirlas en un par de días, añadiendo algún que otro taller o seminario práctico, ya que al final eran muchos conceptos en muy poco tiempo... Y eso que no pude quedarme al
AutumnTest en el Birras & Blues…
La primera ponencia vino de la mano de los organizadores,
Maximiliano Mannise nos contó cuestiones más generales, que esta bien que siempre nos las recuerden para que se afiancen en nuestras cabezas. Me quedo con el mapa de referencia que resume muy bien donde encajan las actividades de testing.
Después Dario Ferraté, en una presentación con una primera parte más comercial, acabo con un caso de éxito muy importante por su volumen y su criticidad: asegurar la calidad de los juegos olímpicos. Me habría gustado conocer más detalles pero el ajustado tiempo de las ponencias no permitió más… Eso sí, la técnica de provocar fallos sin avisar a nadie (desconectar un cable, quitar un enchufe, …) para medir acuerdos de nivel de servicio me pareció muy interesante, así que pretendo aplicarla en el día a día de nuestros proyectos :-)
La siguiente ponencia se centró en las personas, los testeadores, con el título de "
¿es posible encontrar al tester perfecto?"
Antonio Robres hizo hincapié en que
ser testeador no es algo que se enseñe en las universidades, que requiere una serie de habilidades que se han de adquirir con el tiempo, algunas técnicas y otras no. El enfoque de esta presentación me recordó mucho a una de la
CAS 2011, "
Equipos autoorganizados, ¿deberíamos haber estudiado psicología?", ya que también se centraba en las personas y en las habilidades necesarias, en ese caso, en lugar de para hacer testing, para organizar equipos.
La presentación generó un poco de discusión al dejar caer que
un testeador debe tener conocimientos de programación… Es un tema delicado y yo diría que "
depende" de lo que tengas que testear. Parece que ser testeador siempre tenga que estar orientado a buscar defectos "funcionales" cuando considero que hay muchas otras características del software que hay que evaluar, y en las que sí es importante poder entender la tecnología de los desarrollos.
De la ponencia de
Javier Pello me quedo con la
gran magnitud del aseguramiento de la calidad en los proyectos, y digo aseguramiento de la calidad (sin el software) porque me pareció que más que calidad de software se habló de
calidad de proceso o de proyecto, que para mi son cosas diferenciadas (aunque siempre deben existir ambas).
Jorge Castelló presentó su cartera de servicios de calidad de lo que cabe destacar el cuadro de herramientas comerciales (aunque una pena no compararlas con el mundo open-source). Me habría gustado ver los resultados de aplicar sus servicios en el caso real (¿han mejorado las aplicaciones? ¿se han corregido defectos?), y no solo ver a grandes rasgos qué es lo que hicieron.
Después presentamos nuestra manera de trabajar con
QAlitaX en
excentia y los resultados que estamos obteniendo en una base significativa de proyectos y que ponen en evidencia la calidad actual de los desarrollos de software.
Tenemos que contribuir a conseguir un desarrollo de software sostenible o la deuda técnica acabará haciendo que exploten los proyectos. La ponencia finalizó con la primera aparición pública de nuestro nuevo modelo de calidad basado en la representación 3D en forma de ciudad de los proyectos de software,
City Quality Model. En breve habrá nuevas noticias alrededor de este modelo.
|
City Quality Model, en el marco de QAlitaX |
La sesión de la tarde comenzó con Carlos Herráez con un ejemplo práctico en busca de la mejora continua, definiendo el ciclo PDCA y como podemos ir mejorando poco a poco, siempre con unos objetivos de calidad claramente definidos. Fue muy interesante ver los resultados y las mejoras obtenidas, y ver cómo hacer un software mejor es posible.
Continuamos con
Maite Tamayo y su tan difícil de explicar
sistema metrológico. Me gustó ver algún caso de calidad de un sector diferente más allá de aplicaciones web o desarrollos a medida, donde utilizan
CUnit y
Qtronic así como algunas otras herramientas propias y hardware especializado.
Del sistema metrológico pasamos a hablar de una de las palabras de moda (quizás ya no tanto, porque ya llevamos mucho tiempo hablando de ella): la
usabilidad.
Jordi Sánchez nos contó un montón de ejemplos y anécdotas para demostrarnos por qué la usabilidad es importante y no hay que dejarla de lado.
Su compañero del ITI,
Eduardo Lluna encaminó el tramo final de las ponencias hablando de
sistemas críticos, donde una mala calidad del software no es tolerable. Se centró en
el análisis estático de código como técnica para detectar la mayoría de los defectos potenciales en el software.
Me quedo con la cantidad de normativas y estándares definidos para los sistemas críticos, son entornos muy maduros donde incluso solo valen algunas herramientas certificadas para los niveles de seguridad requeridos, y con su reflexión de que una importante fuente de defectos está en la propia escritura del código.
La última ponencia fue para
Beatriz Pérez, que nos introdujo los conceptos del
test combinatorio y los llevó a la práctica a través de la herramienta
CTWeb. Sin duda una técnica muy interesante para poder automatizar casos de prueba y generar un gran conjunto de datos de entrada que después se utilicen en la ejecución y validación de las pruebas.
A partir de aquí
la fiesta del testing continuó en un ambiente más distendido e informal en el Autumn Test en el Birras & Blues...
|
AutumTest |
Quiero terminar felicitando al
Instituto Tecnológico de Informática (ITI) por la organización del evento, así como al resto de co-patrocinadores y colaboradores. Hemos de seguir apoyando este tipo de eventos que enriquecen mucho a todos los que estamos involucrados en el desarrollo software.
Y por supuesto dar las gracias a todos los asistentes, sin ellos un evento así no sería posible. Espero poder verlos a todos de nuevo el año que viene para seguir ayudándonos a conocer mejor la calidad del software y arrojar luz dentro de esas cajas negras que representan los proyectos.
Podéis encontrar otras crónicas del evento en los siguientes enlaces:
-
La jornada VLCTesting 2011, todo un éxito -
Resumen VLC Testing 2011 - VLCTesting -
parte I -
parte II -
Reflexiones tras #VLCTESTING-
'El botón de los 300 millones de dólares', en VLCTESTING