📝 Analizando documentación y detectando requisitos faltantes con IA: ¿Notebook LM es la nueva aliada del tester?
La IA de Google especializada en lectura de documentos
Leer documentos funcionales, historias de usuario y especificaciones no siempre es la parte más emocionante del testing, pero es clave para detectar errores antes de que lleguen al código.
Hoy te cuento cómo probé Notebook LM (la IA de Google especializada en lectura de documentos) para esta tarea que suele ser lenta… pero que ahora puede acelerarse.
🔎 ¿Qué es Notebook LM?
Notebook LM es un asistente de IA diseñado para trabajar dentro del contexto de tus documentos. A diferencia de ChatGPT o Gemini, Notebook LM no busca en internet ni sale del material que tú le proporcionas. Esto lo convierte en una herramienta ideal para testers que trabajan analizando documentos de requisitos, historias de usuario o documentación funcional.
🚀 ¿Cómo ayuda al tester?
Cuando cargas un documento en Notebook LM, la IA puede:
Resumir la funcionalidad descrita.
Señalar posibles ambigüedades ("¿qué significa suficientemente fuerte en este contexto?").
Generar preguntas sobre requisitos que faltan ("¿hay un límite en el número de solicitudes de restablecimiento de contraseña?").
Proponer casos de prueba iniciales basados en el contenido del documento.
Detectar inconsistencias o aspectos no definidos con claridad.
📄 Te invito a probarlo
He preparado un documento de requisitos sencillo para que puedas experimentar:
👉 Descargar Documento de requisitos - Ejemplo en PDF
Solo tienes que cargar este archivo en Notebook LM y empezar a preguntarle:
"¿Qué posibles problemas ves en estos requisitos?"
"Genera 5 preguntas que debería hacer al analista sobre este documento."
"¿Detectas ambigüedades o cosas no definidas claramente?"
🆚 ¿Y en qué se diferencia de otros chatbots?
Mientras que ChatGPT y Gemini pueden generar respuestas basadas en conocimiento general y datos de entrenamiento, Notebook LM se queda únicamente en tu documento. Esto garantiza que las respuestas estén 100% enfocadas en el contexto real de tu proyecto.
Ideal para cuando trabajas con documentación confidencial o necesitas mantener el foco.
🤔 ¿Cómo es que Notebook LM detecta "faltantes" o "ambigüedades" si solo trabaja con mi documento?
Notebook LM sí está basado en un modelo de lenguaje (IA), como ChatGPT o Gemini, que fue entrenado con toneladas de textos, libros y documentos previos hasta su fecha de corte.
Entonces:
Aunque no "busca en internet en tiempo real", sí tiene un conocimiento general previo sobre temas como buenas prácticas en requisitos, validación de software, reglas de negocio comunes, etc.
Lo que hace es comparar lo que encuentra en tu documento con esos patrones generales que ya "conoce" por su entrenamiento.
Por ejemplo:
Si en tu documento no aparece nada sobre qué pasa si un token expira, y eso es algo común en requisitos de seguridad, la IA puede sugerir que eso podría faltar.
O si detecta que una regla está escrita de forma ambigua (ejemplo: "la contraseña debe ser suficientemente fuerte"), puede marcarlo como poco claro porque no se especifican los criterios concretos.
Pero:
No busca en Google ni en bases de datos externas al documento.
No "alucina" nuevas políticas específicas de tu empresa que no estén en el texto, solo sugiere basándose en conocimiento general aprendido.
🔍 Entonces, ¿es fiable?
Es útil como una primera alerta de posibles huecos o ambigüedades, sobre todo si estás revisando muchos documentos y necesitas filtrar rápido.
Pero siempre requiere revisión humana: la IA sugiere, pero tú confirmas si realmente falta algo según tu contexto real.
🛠️ Prompts recomendados para testers
Aquí tienes algunas ideas de cómo aprovechar esta IA:
✅ Para obtener un resumen claro de los requisitos:
"Resume los requisitos funcionales mencionados en este documento en formato de lista."
✅ Para detectar posibles requisitos faltantes o ambiguos:
"¿Qué requisitos relacionados podrían faltar o no estar claramente especificados en este documento?"
"¿Detectas alguna ambigüedad en las reglas de negocio descritas?"
✅ Para generar preguntas para aclarar con el Product Owner o analista:
"Sugiere 5 preguntas que podría hacer al Product Owner para aclarar o completar los requisitos."
✅ Para verificar criterios de aceptación:
"Enumera los criterios de aceptación presentes en el documento. ¿Hay alguno que falte según las mejores prácticas?"
✅ Para detectar aspectos de seguridad no mencionados:
"¿Este documento menciona validaciones de seguridad? Si no, ¿qué validaciones podrían considerarse necesarias?"
✅ Para preparar reuniones de refinamiento o revisión:
"Prepárame un resumen ejecutivo con los puntos fuertes, ambigüedades y dudas que podrían discutirse en una reunión de refinamiento."
🎯 ¿Notebook LM es una nueva aliada real para testers?
Mi conclusión:
Sí como herramienta de apoyo para leer documentación más rápido y detectar huecos.
No reemplaza el criterio humano (aún), pero acelera la fase de revisión y preparación de preguntas para el equipo.
Es ideal cuando tienes que leer varios documentos largos en poco tiempo.
🛠️ Bonus:
He creado un notebook con varias fuentes oficiales sobre Notebook LM justamente para aprender cómo funciona, si te interesa probarlo, dejame un comentario o enviame tu correo por privado para agregarte al cuaderno 😉
🔜 ¿Qué sigue?
En el siguiente post vamos a comparar cómo entienden los criterios de aceptación las IA: ¿Pueden realmente captar el contexto como lo hace un tester humano? 🤔
Si te interesan estos temas, suscríbete 👇🏻
Gracias por el post <3
El link al Ejemplo en PDF lleva a una white page (quizá no se subió bien)