Resumen:
a divergencia de Jensen Shannon (JSD), una versión simetrizada de la divergencia de Kullback Leibler,permite cuantificar la diferencia entre distribuciones de probabilidad. Debido a esta propiedad ha sido ampliamente utilizada para el análisis de secuencias simbólicas, comparando la composición simbólica de posibles subsecuencias. Una ventaja que ofrece JSD es que no requiere el mapeo de la secuencia simbólica a una secuencia numérica, necesaria por ejemplo en el análisis de correlación espectral. Se han propuesto distintas extensiones de JSD para mejorar la detecci´on de bordes de subsecuencias en una secuencia, en particular para el análisis de secuencias de DNA. Desde su propuesta original, la extensión propuesta por Tsallis a la entropía de Boltzmann Gibbs ha sido considerada para extender sus resultados y aplicaciones. Sin embargo no surge una única posibilidad para la extensión de JSD a partir de la definición de Tsallis. Consideramos aquí posibles extensiones de la JSD en el ma