Optimización de las transmisiones streaming
a partir de los dispositivos periféricos asociados

https://doi.org/10.22201/dgtic.30618096e.2026.4.1.152
Vol. 4, Núm. 1. enero-marzo 2026

Optimización de las transmisiones streaming a partir de los dispositivos periféricos asociados

Optimization of streaming broadcasts from associated peripheral devices

Información del reporte:

Licencia Creative Commons

El contenido de los textos es responsabilidad de los autores y no refleja forzosamente el punto de vista de los dictaminadores, o de los miembros del Comité Editorial, o la postura del editor y la editorial de la publicación.

Para citar este reporte técnico:

Romo Zamudio, J.F. (2026). Optimización de las transmisiones streaming a partir de los dispositivos periféricos asociados. Cuadernos Técnicos Universitarios de la DGTIC, 4 (1). https://doi.org/10.22201/dgtic.30618096e.2026.4.1.152

José Fabián Romo Zamudio

Dirección General de Cómputo y de Tecnologías
de Información y Comunicación
Universidad Nacional Autónoma de México

fabian.romo@unam.mx

ORCID: 0009-0003-9269-8185

Resumen:

Con el propósito de incrementar la calidad y estabilidad de las transmisiones de eventos académicos vía streaming producidos por un área de trabajo en la Dirección General de Cómputo y de Tecnologías de Información y Comunicación de la Universidad Nacional Autónoma de México durante 2025, se realizó un análisis de la problemática existente. Dicho análisis se integró a una propuesta inicial para la mejora del cableado, conexiones y equipos periféricos de audio y video, lo que permitió ejecutar pruebas físicas en diversos escenarios con los equipos disponibles y agregar componentes nuevos de bajo costo para reducir los potenciales puntos de falla. A raíz de la simplificación alcanzada en la ingesta y procesamiento de señales digitales, se alcanzó el objetivo de proporcionar transmisiones en línea a un mayor número de participantes, a la vez que se identificaron los componentes y recomendaciones básicas para la producción de streaming en espacios como aulas y auditorios.

Palabras clave:

Audio digital y analógico, transmisiones por internet, video digital y analógico.

Abstract:

With the aim of improving the quality and stability of streaming transmissions for academic events produced by a specific area at the General Directorate of Computing and Information and Communication Technologies of Universidad Nacional Autónoma de México during 2025, an analysis of the underlying issues was conducted. This analysis was integrated into an initial proposal to enhance cabling, connections, and audio-video peripheral equipment. This approach enabled the execution of physical tests across multiple scenarios using available equipment, as well as the incorporation of new, low-cost components to reduce potential points of failure. As a result of the simplification achieved in the ingestion and processing of digital signals, the objective of delivering online broadcasts to a larger number of participants was met, while also identifying key components and basic recommendations for streaming production in spaces such as classrooms and auditoriums.

Keywords:

Broadcast over the internet, digital and analog audio, digital and analog video.

1. Introducción

Las tecnologías de streaming transformaron el ambiente educativo universitario en los últimos cinco años, al evolucionar de ser un recurso complementario hacia una infraestructura esencial para la colaboración académica, proceso catalizado por la pandemia de COVID-19, y se consolidaron como un elemento permanente debido a su eficacia y flexibilidad. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) (2020) recomendó el uso de herramientas tecnológicas para impartir clases en video y emplear las plataformas integradas de aprendizaje ante el reto de dar continuidad a la educación en todos los niveles durante la emergencia sanitaria. El requerimiento fue de tal magnitud que, así como se hicieron ajustes pedagógicos, los avances tecnológicos en todo el mundo alcanzaron niveles de desarrollo no previstos, con el fin de garantizar la disponibilidad de las herramientas. La Universidad Nacional Autónoma de México (UNAM) no es ajena a esta transformación y, en lo particular, en la Dirección General de Cómputo y de Tecnologías de Información y Comunicación (DGTIC) se emplea el streaming para la difusión de sus actividades académicas.

El streaming, definido como “una tecnología de transmisión de datos que permite consumir contenido multimedia (audio, video, etc.) de forma continua a través de una red, sin necesidad de descargar previamente el archivo completo al dispositivo del usuario” (Rueda & Rueda, 2020, p. 45) se consolidó apoyado en tres pilares: componentes técnicos, usuarios y contenidos. En lo tecnológico, la maduración de plataformas y la expansión de la banda ancha permitieron que las transmisiones en vivo y bajo demanda fueran más estables y accesibles (Adedoyin & Soykan, 2020). Por su lado, los usuarios demandaron flexibilidad y acceso asincrónico a los contenidos, razón adicional que consolidó al streaming como una solución que trascendió las barreras del aula física. Finalmente, los contenidos se diversificaron: además de la grabación de clases para posterior consulta (podcast o “Portable On Demand broadCAST”), se incluyeron conferencias, presentaciones y mesas de trabajo en vivo.

En ese ámbito, el streaming producido en el área de trabajo presentó algunas situaciones problemáticas que incidieron en una menor asistencia de usuarios en línea, además de limitar la participación en los segmentos interactivos. Entre las causales, estaban la baja calidad del audio, las resonancias y los ecos, interrupciones de la transmisión y poca variación de fuentes de video. En febrero de 2025 se presentó un análisis con recomendaciones técnicas que incluyó la estimación inicial de la inversión necesaria partiendo de un estudio de mercado. En éste, se definió como objetivo incrementar sustancialmente la participación de estudiantes, personal académico y personas afines a las actividades que son emitidas vía streaming, mediante la mejora en la calidad y estabilidad de las transmisiones, empleando herramientas tanto físicas (hardware) como lógicas (software) con la menor erogación económica posible.

2. Desarrollo técnico

Para cumplir el objetivo, se ejecutaron tres etapas: a) identificación de problemática y causas, b) definición de elementos para la mejora de transmisiones y c) aplicación y evaluación práctica de la solución propuesta. La Tabla 1 del Anexo A resume los resultados de esas etapas y el Anexo B describe a detalle los procedimientos en cada una. A partir del análisis inicial y la elección de los componentes más viables en el corto plazo, se diseñó una propuesta para dar solución a la problemática. A continuación, se detallan los elementos técnicos de la solución.

2.1 Cableado de las cámaras

Considerando solo las cámaras disponibles, la mayoría con puertos de tipo HDMI1, se adquirieron adaptadores HDMIEthernet2 pasivos, lo que permitió alcanzar distancias de hasta 30 metros sin degradación perceptible de la señal. Esta decisión se justifica en las limitaciones físicas de los cables HDMI pasivos, cuya longitud efectiva sin atenuación notable rara vez supera los 15 metros, dependiendo del estándar y la calidad del cable. De acuerdo con las guías técnicas de Anker (2024) y Cable Matters (2023), los cables HDMI pasivos garantizan una transmisión confiable de señales 4K únicamente hasta alrededor de 5 metros, y su desempeño comienza a degradarse progresivamente con longitudes mayores, lo que requiere soluciones activas o basadas en fibra para tramos extendidos. En contraste, el cable Ethernet categoría 5e o 6 permite aprovechar un medio físico diseñado para enlaces de hasta 100 metros, conforme a las normas IEEE 802.3 (2022) y TIA-568 (2024), con control de atenuación y diafonía adecuados para la transmisión de señales digitales balanceadas. El empleo de extensores HDMI sobre cable Ethernet representó una solución técnicamente viable para instalaciones audiovisuales que requieren continuidad de señal en tramos superiores a los que soporta un cable HDMI convencional, manteniendo la integridad eléctrica y compatibilidad con las resoluciones de trabajo necesarias para el streaming. En la Tabla 2 del Anexo A se muestra la inversión realizada tanto en los adaptadores de extensión sobre Ethernet como en los respectivos cables, lo que significó un ahorro del 80% de la estimación inicial.

2.2 Captura de video

Se adquirieron adaptadores/capturadores HDMI hacia USB3 3.0 (tipo “capture dongles”) como interfaz de bajo costo entre la salida HDMI de las cámaras y las computadoras para codificación. Técnicamente, estos dispositivos aprovechan el enlace SuperSpeed USB 3.0 (5 Gbit/s teóricos) para transportar tramas sin compresión o con compresión mínima a rangos de hasta 1080p (Alta definición) y 60 cuadros por segundo, con una latencia y rendimiento adecuados para la producción en vivo (Uitto & Heikkinen, 2020; Yan & Yi, 2022). La elección de USB 3.0 permite alimentar varias interfaces sin necesidad de adaptadores externos, ya que el estándar básico de USB 3.x proporciona 5 V con hasta ≈900 mA (≈4.5 W). No obstante, capturadores de mayor demanda (como 4K a 60 cuadros sin compresión o con electrónica activa avanzada) requieren alimentación auxiliar con puertos con mayor capacidad (Power delivery) para garantizar estabilidad y evitar caídas de rendimiento (USB-IF, 2022). Debido a esto, se conectaron los adaptadores HDMI hacia un concentrador USB 3.0 con fuente de poder de 5V a 3 amperes. Con ello se consiguió un enlace estable y sin pérdida de calidad para la ingesta hacia el software de codificación (OBS). En la Tabla 3 del Anexo A, se describen los límites de escalabilidad de fuentes de video a partir de las pruebas realizadas. Como se indica en la Tabla 2, del mismo anexo, la inversión por tres capturadoras de video con concentrador USB externo implicó erogar solo el 5% de lo calculado en el primer análisis.

2.3 Microfonía

Se optó por usar micrófonos de solapa (lavalier) inalámbricos, dado el equilibrio entre practicidad, movilidad y bajo costo. Tienen respuesta en frecuencia plana y disponen de la adecuada relación señal/ruido para la voz hablada, además de una mínima interferencia con la movilidad del presentador, factores que los hacen idóneos para entornos de streaming profesional (Zheng et al., 2024). La mayoría de estos sistemas opera en banda UHF entre 470 y 698 MHz, espectro asignado a la radiodifusión digital terrestre y compartido con servicios móviles, por lo que se debe usar en el rango correcto (Taha et al., 2024). Del mismo modo, es indispensable evitar interferencias con redes Wi-Fi y LTE cercanas, particularmente para micrófonos en la banda ISM de 2.4 GHz, la cual es susceptible a la congestión en entornos académicos, empresariales y urbanos (Ofcom, 2012). Estos micrófonos fueron eficientes al conectar sus receptores en el concentrador USB, adquirido para los convertidores de video, además de económicamente viables, como se puede verificar en la Tabla 2 del Anexo A, ya que representaron sólo el 7% del costo inicial estimado. Adicionalmente, en la Tabla 3 del mismo anexo, se resume la escalabilidad derivada de las pruebas que se efectuaron.

2.4 Captura y mezcla de audio

Todos los dispositivos de entrada se integraron como fuentes digitales hacia la computadora de codificación para asegurar la consistencia en la sincronización y la calidad del sonido durante el streaming. Asimismo, la unidad receptora de los micrófonos de solapa se conectó al concentrador USB 3.0 y los micrófonos amplificados (como los presentes en auditorios, analógicos en su mayoría) se conectaron a través de una mezcladora de cuatro canales con interfaz digital USB 3.0, lo que unificó las señales en formato PCM4. Esto anuló las potenciales pérdidas por conversiones analógico-digitales sucesivas y redujo tanto la diafonía como el ruido inducido, típicos de conexiones analógicas de extensa longitud. En consecuencia, se aseguró una mayor estabilidad en la tasa de muestreo y profundidad de bits, factores críticos para la inteligibilidad y fidelidad de la voz (Mori et al., 2023). Diversos estudios recientes destacan que las arquitecturas basadas en interfaces USB 3.0 y audio digital sobre bus de alta velocidad proporcionan un flujo síncrono de baja latencia, adecuado para aplicaciones de transmisión en vivo y entornos de producción multimedia (Huang & Wang, 2021; West et al., 2023). La conversión inmediata a digital evitó la degradación por interferencias electromagnéticas, un fenómeno especialmente relevante en escenarios de codificación portátiles o con múltiples fuentes simultáneas (Boddeda et al., 2022). Paralelamente, seleccionar una mezcladora con menor número de canales implicó un ahorro significativo, como se verifica en la Tabla 2 del Anexo A.

2.5. Codificación

La estación principal fue una laptop con sistema operativo Windows 10, procesador Intel Core i5, 16 GB de RAM y GPU Nvidia, a la que se conectó el concentrador USB 3.0 que reunía las capturadoras de vídeo, los receptores de micrófonos lavalier y la mezcladora de audio. Como respaldo, se configuró una laptop MacBook Air 13" con chip Apple M1 y 8 GB de RAM. Esta arquitectura de ingesta totalmente digital facilitó que el software OBS Studio recibiera las señales en un formato uniforme y redujo al máximo posible tanto las conversiones analógico–digital adicionales como la cantidad de puntos de conexión, mitigando en el CPU la carga por correcciones de sincronía y posibles ruidos de línea (OBS Project, 2021). Para las transmisiones requeridas por el área de trabajo en 1080p, las guías de ingeniería de transmisión recomiendan —como mínimo— un procesador del rango de un Intel Core i5, o equivalente, y 16 GB de RAM para mantener una codificación estable con tasas de bits para YouTube (de 8 a 12 Mbps para video HD a 1080p), así como también para aceptar múltiples dispositivos USB simultáneos y procesar escenas complejas en OBS, al que se configuró para delegar a la GPU Nvidia la codificación, aliviando así la carga de la CPU y reduciendo la latencia de codificación en vivo, acciones recomendadas en estudios consultados sobre arquitecturas de streaming en tiempo real (Drosos et al., 2022).

3. Resultados

Durante dos eventos de alto impacto (EDUCATIC 2025 y sesión final SEMINOVA 2025), se alcanzó una mayor participación, estabilidad y calidad en la transmisión, como se puede verificar en la Tabla 4 en el Anexo A. No se registraron desconexiones de los equipos de codificación, el flujo de la señal fue constante y esto permitió que los asistentes participaran de manera más dinámica e interactiva. Como subproducto, se elaboró una guía para la mejora de las transmisiones con diagramas para facilitar la implementación; éstos se incluyen en el Anexo B. También se detectaron áreas de oportunidad adicionales, como la sustitución de los conectores HDMI para prevenir fallas, la futura migración hacia adaptadores activos de HDMI a Ethernet para extender la distancia hacia las cámaras hasta 150 metros, mejorar la calidad de la imagen a resolución 4K e incorporar el subtitulado por Inteligencia Artificial en tiempo real.

4. Conclusiones

El proyecto resolvió deficiencias técnicas en las transmisiones de streaming, en específico en cuanto a la calidad del audio, la estabilidad del video y confiabilidad de la codificación. En el diagnóstico inicial y las pruebas para la construcción de una solución entre febrero y julio de 2025, se constató que los problemas provenían de pérdidas de señal por limitaciones físicas del cableado HDMI, interferencias en los sistemas de audio y cargas excesivas en la computadora de codificación. El principal aporte técnico del proyecto fue concentrar las fuentes de audio y video en una arquitectura digital, lo que redujo la latencia y los errores de sincronía. La digitalización completa de las líneas de captura y codificación elevó la calidad del streaming, con equipos de bajo costo a partir de una configuración simple. El proyecto alcanzó su objetivo de manera satisfactoria y estableció una base replicable para la mejora continua de las transmisiones académicas.

Agradecimientos

El autor agradece por su apoyo en el diagnóstico, la evaluación de alternativas y la puesta en operación del plan de mejora con los dispositivos periféricos seleccionados durante los eventos EDUCATIC 2025 y SEMINOVA sesión del 5 de septiembre de 2025, a las siguientes personas adscritas a la Dirección de Innovación en Tecnologías para la Educación de la DGTIC: Marina Kriscautzky, Stephen García, Lizbeth Heras, Emilio Quiroz, Emmanuel Rojón, Arturo Muñiz, César Ordoñez y Daniel González.

Referencias

Adedoyin, O. B., & Soykan, E. (2020). Covid-19 pandemic and online learning: the challenges and opportunities. Interactive Learning Environments, 31(2), 863–875. https://doi.org/10.1080/10494820.2020.1813180

Anker. (2024, 31 julio). What Is the Longest HDMI Cable? Understanding the Max HDMI Cable Length. Anker Blog. https://www.anker.com/blogs/cables/max-hdmi-cable-length

Boddeda, R., Nandakumar, R., Gollakota, S., & Choudhury, R. R. (2022). Digital audio systems with low-latency wireless links for interactive media applications. ACM Transactions on Multimedia Computing, Communications, and Applications (TOMM), 18(2), 1–21. https://doi.org/10.1145/3462635

Cable Matters. (2023, 11 septiembre). How Long Can an HDMI Cable Be? - The maximum length of an HDMI cable. Cable Matters Blog. https://www.cablematters.com/Blog/HDMI/how-long-can-an-hdmi-cable-be

Drosos, I., & Guo, P. J. (2022). The design space of livestreaming equipment setups: Trade-offs, challenges, and opportunities. In Proceedings of the 2022 ACM Designing Interactive Systems Conference (DIS ’22) (pp. 835-848). Association for Computing Machinery. https://doi.org/10.1145/3532106.3533489

Huang, J., & Wang, Y. (2021). Research and application of high-speed and adjustable synchronous data transfer system based on USB 3.0 peripheral controller. Journal of Circuits, Systems and Computers. https://doi.org/10.1142/S0218126621501188

IEEE Standards Association. (2022). IEEE Standard for Ethernet: IEEE Std 802.3-2022. https://standards.ieee.org/ieee/802.3/10422/

Mori, F., Santoni, A., Fausti, P., Pompoli, F., Bonfiglio, P., & Nataletti, P. (2023). The effectiveness of least mean squared-based adaptive algorithms for active noise control system in a small confined space. Applied Sciences, 13(20), 11173. https://doi.org/10.3390/app132011173

The OBS Project. (2021, 25 agosto). System requirements [Documentación]. https://obsproject.com/kb/system-requirements

Ofcom. (2012). Potential for LTE interference to wireless audio. https://www.ofcom.org.uk/siteassets/resources/documents/consultations/uncategorised/8180-technical-licence-conditions/associated-documents/secondary-documents/wireless_audio_testing.pdf?v=320008

Rueda, L. A. C., & Rueda, O. L. C. (2020). Tecnologías de la información y la comunicación: Apropiación y uso en la educación. Editorial Universidad del Cauca.

Taha, H., Vári, P., & Nagy, S. (2024). Adjacent-channel compatibility analysis of international mobile telecommunications downlink and digital terrestrial television broadcasting reception in the 470–694 MHz frequency band using Monte Carlo simulation. Electronics, 13(3), 575. https://doi.org/10.3390/electronics13030575

Telecommunications Industry Association. (2024). ANSI/TIA-568 Commercial building telecommunications cabling standards. https://store.accuristech.com/standards/tia-ansi-tia-568-set?product_id=2594410

Uitto, M., & Heikkinen, A. (2020). Exploiting and evaluating live 360° low latency video streaming using CMAF. In 2020 European Conference on Networks and Communications (EuCNC 2020) (pp. 276-280). IEEE. https://doi.org/10.1109/EuCNC48522.2020.9200954

UNESCO. (2020). COVID-19: 10 recommendations to plan distance learning solutions. Recuperado de https://www.unesco.org/en/articles/covid-19-10-recommendations-plan-distance-learning-solutions

USB Implementers Forum. (2022). USB 3.2 Revision 1.1 – June 2022. USB-IF. https://www.usb.org/document-library/usb-32-revision-11-june-2022

Yan, Z., & Yi, J. (2022). Dissecting latency in 360° video camera sensing systems. Sensors, 22(16), 6001. https://doi.org/10.3390/s22166001

West, R., Golchin, A., & Njavro, A. (2023). Real-time USB networking and device I/O. ACM Transactions on Embedded Computing Systems, 22(4), 1-28. https://doi.org/10.1145/3604429

Zheng, Z., Wang, C., Wang, L., Ji, Z., Song, X., Mak, P.-I., Liu, H., & Wang, Y. (2024). Micro-electro-mechanical systems microphones: a brief review emphasizing recent advances in audible spectrum applications. Micromachines, 15(3), 352. https://doi.org/10.3390/mi15030352

1HDMI: High Definition Multimedia Interface.

2Ethernet: Tecnología que conecta dispositivos a una red de área local (LAN) mediante cableado físico.

3USB. Universal Serial Bus.

4PCM. Pulse Code Modulation.

Anexo A. Resultados por etapa

Tabla 1

Ámbitos de análisis, áreas de oportunidad y soluciones propuestas para la mejora del streaming en el área de trabajo

ÁmbitoÁrea de oportunidadSolución propuesta
Captura de video
Usar más de una cámara y varias escenas con la menor cantidad de operadores.

Agregar cámaras del tipo PTZ (pan-tilt-zoom) reutilizadas o de bajo costo.
Agregar cámaras de escena fija.Incorporar cámaras estáticas preexistentes.
Estabilizar el video de origen.Utilizar extensiones de cableado digital desde cada fuente de video.
Variar los orígenes de video durante la transmisión.Agregar mezcladora de video con corte directo y desvanecimiento y homologar las entradas a la computadora de streaming.
Captura de audioEmplear micrófonos de solapa.
Adquirir micrófonos lavalier recargables y de bajo costo.
Incorporar micrófonos ambientales.Sumar micrófonos de mesa o poste activos.
Eliminar resonancias, ecos e interferencias en el audio.Usar mezcladora analógica con salida digital hacia la computadora de streaming y puerto de monitoreo.
IluminaciónMejorar la calidad de imagen con iluminación directa e indirecta.Reubicar lámparas frías en función del espacio donde se genere la señal. Homologar la temperatura de color.
ConectividadEstabilizar las transmisiones hacia Internet.Usar conexiones alámbricas, reducir al mínimo las de radiofrecuencia.
Computadora de streamingReforzar la capacidad de procesamiento y codificación.Emplear dos estaciones de codificación con prestaciones de cómputo superiores.
Software de transmisiónAsegurar que el software para codificación y transmisión opere de forma estable.
Utilizar la última versión de una plataforma estándar y abierta para la transmisión hacia YouTube.
SubtitulajeProporcionar mayor accesibilidad al contenido con subtitulaje preciso.Combinar herramientas automatizadas, de inteligencia artificial y revisor humano para el subtitulaje de las grabaciones en podcast.

Tabla 2

Comparativo de costos de los componentes físicos requeridos para el streaming mejorado

Estimación inicial de costos(Febrero de 2025)Inversión en la solución implementada(Julio – agosto de 2025)
CantidadDescripciónCosto total (*)CantidadDescripciónCosto total
Transmisión de video
6Cable HDMI 4K de 15 metros alta velocidad$8400.003Cable Ethernet CAT 6 de 30 metros$1104.00
3Repetidor – extensor activo HDMI 4K$1188.003Extensor HDMI sobre Ethernet / pasivo$600.00
Captura de video
1Mixer – switcher grabador de video ATEM Mini Pro$8000.003Convertidor HDMI a USB 3.0$600.00
1Tarjeta de video Nvidia GeForce RTX 4070$22000.001Concentrador USB 3.0 de 8 puertos con fuente de poder$500.00
Microfonía
2Kit de dos micrófonos de solapa RODE Wireless Go II$10000.002Kit de dos micrófonos de solapa en banda 2.4GHz con receptor USB$700.00
Mezcla de audio
1Mezcladora de audio BEHRINGER Xenyx X1622. 16 canales con interfaz USB$5400.001Mezcladora de audio de 4 canales con interfaz USB$600.00
Gran total estimadoGran total invertido
$54,988.00$4,104.00
Ahorro general97%

(*) Los costos se expresan en pesos mexicanos e incluyen IVA

Tabla 3

Límites de escalabilidad resultado de pruebas de fuentes de audio y video digital

PruebaEquipo de cómputoPuertos USB 3.xPuertos USB 2.xMáx. de fuentes de audioMáx. de fuentes de video
1Escritorio, Intel i5, 4 GB RAM.2321
2Portátil, Intel i5, 4 GB RAM2221
3Escritorio, Intel i5, 8 GB RAM.3322
4Portátil, Intel i5, 8 GB RAM2222
5Portátil, Intel i5, 8 GB RAM8 Con concentrador externo USB 3.0 y fuente de poder233
6Escritorio, Intel i7, 8 GB RAM.3333
7Portátil, Intel i5, 16 GB RAM8 Con concentrador externo USB 3.0 y fuente de poder244
8Escritorio, Intel i7, 32 GB RAM.6345

Tabla 4

Relación de sesiones donde se usaron los componentes de hardware y software y las configuraciones mejoradas para streaming

EventoFecha, sesión y URLDuraciónParticipantes / vistas totales
EDUCATIC 202530 JUL 2025. Sesión 1.https://www.youtube.com/live/q-pifuKbIgs?si=11hQwYrz5Qr3AnH12:28:15250/ 1,546
31 JUL 2025. Sesión 2.https://www.youtube.com/live/V4YKof8Io_c?si=heHKJjQos_ztYliP1:42:11210/ 987
1 AGO 2025. Sesión 3.https://www.youtube.com/live/b5csG2nAFl8?si=oJjd5H8hglqyNx_c2:22:18225/ 993
SEMINOVA sesión final 20255 SEP 2025. Sesión “¿Cómo se decide el futuro de la IA generativa? Política, sociedad y academia en debate”https://www.youtube.com/live/teSmiEriTKc?si=f4xDd32hyLUcgvyR1:52:2570 / 468

Anexo B. Procedimientos para la integración de solución a la mejora del streaming

Procedimiento de la etapa 1. Identificación de la problemática y sus causas

Objetivo: Verificar el correcto funcionamiento e integración de los componentes de captura, procesamiento y envío de una transmisión en vivo, asegurando estabilidad, calidad audiovisual y continuidad del servicio, antes y durante la emisión.

Componentes:

Sección I. Fases y tareas generales

En esta sección del procedimiento, se describen las cuatro fases generales aplicables a cualquier espacio, con ajustes según el aforo:

Fase 1. Inspección física y de conexiones

Tareas:

  1. Verificar la integridad de los cables HDMI y de los conectores, asegurando la holgura que evite tensiones en el cable, así como evitando falsos contactos.
  2. Confirmar que tengan la suficiente carga los dispositivos que emplean baterías, y preferentemente emplear eliminadores – cargadores todo el tiempo.
  3. Revisar las conexiones de los dispositivos analógicos de audio, asegurando que los conectores plug o mini estén firmemente fijados a la computadora de codificación.
  4. Identificar posibles fuentes de interferencia eléctrica o inalámbrica, tales como motores, ventiladores, aires acondicionados, microondas, teléfonos inalámbricos.

Fase 2. Verificación de las señales de video

Tareas:

  1. Confirmar que se detectan correctamente las señales de las cámaras en OBS por medio de la tarjeta de digitalización externa que está conectada por USB a la computadora de codificación.
  2. Verificar que la resolución, la frecuencia de cuadros y la sincronía de imagen sea uniforme en OBS.
  3. Evaluar que la imagen sea estable al menos durante 10 minutos.
  4. Detectar cortes, congelamientos o pérdida de señal HDMI.

Fase 3. Verificación de señal de audio

Tareas:

  1. Confirmar que se recibe señal de ambos micrófonos en OBS.
  2. Verificar los niveles de audio con la ayuda de audífonos conectados a la computadora de codificación, con el fin de evitar saturación y ruido de fondo.
  3. Detectar eco, realimentación o interferencias de radio frecuencia.
  4. Validar que exista sincronización entre el audio y el video.

Fase 4. Verificación de red y transmisión

Tareas:

  1. Medir la estabilidad de la red Wi-Fi, identificando que sea estable la conectividad hacia el servicio de publicación de streaming.
  2. Realizar la transmisión privada o de prueba en YouTube desde OBS.
  3. Evaluar la tasa de bits sostenida que indique tanto YouTube como OBS en su monitor de transmisión, verificando que no existan cuadros perdidos.
  4. Realizar la simulación durante al menos 20 minutos sostenidos.

Sección II. Tareas específicas y resultados por tipo de espacio

En esta sección del procedimiento, se describen las tareas específicas aplicadas a cada espacio que se verificó para la integración de la solución, así como las fallas detectadas:

Espacio 1. Aula en DGTIC para 20 personas

Condiciones generales: Espacio reducido con acústica controlable y una mínima interferencia inalámbrica.

Tareas específicas:

  1. Ubicar las cámaras a corta distancia y evitar el uso de zoom digital.
  2. Colocar los micrófonos al menos a 1 metro de distancia de las bocinas para impedir la generación de eco.
  3. Configurar los micrófonos con niveles bajos a medios de ganancia.
  4. Usar la configuración a la Wi-Fi institucional con señal fuerte (superior al 70 %).
  5. Realizar la prueba de transmisión de 15 minutos.

Fallas detectadas:

Espacio 2. Auditorio de DGTIC para 60 personas

Condiciones generales: Mayor distancia entre periféricos, con acústica variable y más dispositivos conectados a la red.

Tareas específicas:

  1. Verificar la longitud y la calidad de los cables HDMI.
  2. Ajustar los encuadres amplios y revisar la iluminación del auditorio.
  3. Probar los micrófonos mientras se camina por el estrado para detectar zonas muertas.
  4. Revisar las posibles interferencias de otros micrófonos inalámbricos en operación.
  5. Ejecutar una prueba de transmisión de al menos 20 minutos.

Fallas detectadas:

Espacio 3. Auditorio de la Escuela Nacional de Trabajo Social para 200 personas

Condiciones generales: Espacio más amplio con una acústica compleja y una elevada variabilidad en señal inalámbrica.

Tareas específicas

  1. Verificar la estabilidad térmica de la computadora codificadora.
  2. Ajustar la compresión de audio en OBS para reducir el ruido ambiental.
  3. Fijar una tasa de bits de codificación reducida para evitar caída de transmisión.
  4. Deshabilitar la Wi-Fi del público cercano al punto de transmisión o emplear una red Wi-Fi exclusiva.
  5. Ejecutar prueba de transmisión por al menos 30 minutos.

Fallas detectadas:

Conclusiones generales de la etapa 1. Identificación de la problemática y sus causas

A partir de las fallas detectadas, se considera que la transmisión de streaming será aceptable cuando:

Procedimiento de la etapa 2. Definición de los elementos para la mejora de las transmisiones.

Objetivo: Definir, de manera sistemática y justificable, los elementos técnicos, operativos y de configuración que permitan mejorar el desempeño de las transmisiones de streaming, mitigando fallas recurrentes como caídas de señal, cortes de video, eco y contaminación de audio, así como también inestabilidad en la transmisión hacia la plataforma de publicación (YouTube).

Fases y tareas generales.

Este procedimiento consta de cuatro fases, orientadas a la toma de decisiones técnicas con base en la evidencia obtenida durante pruebas reales de transmisión.

Fase 1. Análisis de resultados de la verificación

Objetivo específico: Identificar las fallas recurrentes y condiciones críticas observadas durante la fase de pruebas.

Tareas:

  1. Clasificar las incidencias detectadas por tipo, agrupando los elementos de video, audio, red y codificación.
  2. Determinar la frecuencia de las incidencias según el tipo de espacio analizado originalmente: aula (20 personas), auditorio mediano (60 personas), auditorio grande (200 personas)
  3. Evaluar el impacto en la experiencia del usuario final.

Entregable: Lista por prioridades de los problemas técnicos reales, no hipotéticos.

Fase 2. Identificación de los puntos de origen de las fallas

Objetivo específico: Determinar en qué parte de la cadena de transmisión del streaming se genera la degradación del servicio.

Tareas

  1. Analizar los componentes en secuencia: Captura (cámaras, micrófonos), interconexión (HDMI, audio analógico), procesamiento (computadora codificadora, OBS Studio), envío (red inalámbrica), plataforma de destino (YouTube).
  2. Relacionar cada falla con su punto de origen.
  3. Establecer distinciones entre las fallas partiendo de tres criterios: Técnicas (de hardware o software), operativas (por configuración o uso incorrecto), contextuales (como acústica o saturación de red).

Entregable: Mapa conceptual con relaciones de causas raíz clasificadas por tipo de falla.

Fase 3. Definición de los criterios para la mejora del streaming

Objetivo específico: Establecer los parámetros para decidir cuáles elementos deben mejorarse o agregarse a la solución.

Tareas

  1. Evaluar el impacto en la calidad de transmisión.
  2. Considerar la frecuencia de las fallas.
  3. Definir la facilidad de implementación.
  4. Identificar el costo asociado.
  5. Describir la potencial escalabilidad en distintos espacios.

Entregable: Esquema de decisión técnica para justificar las mejoras e inversiones.

Fase 4. Identificación de elementos de mejora

Objetivo específico: A partir de los resultados de las fases previas, definir los elementos concretos que permitirán mejorar las transmisiones.

Tareas:

4.1 Descripción de componentes para la mejora en video.

4.2 Relación de elementos para la mejora en audio.

4.3 Acciones y componentes para la mejora en conexión de red.

4.4 Elementos para la mejora en la capacidad de procesamiento y codificación.

4.5 Consideraciones generales de eficiencia operativa.

Entregable: Diagramas (véase Figuras 1, 2 y 3 al final del presente Anexo), análisis y listados de componentes de la solución.

Procedimiento de la etapa 3. Aplicación y evaluación práctica de la solución propuesta

Objetivo: Aplicar de forma controlada la solución técnica de mejora y evaluar su efectividad mediante pruebas prácticas, comparables y repetibles, en transmisiones realizadas con OBS Studio hacia YouTube, en distintos tipos de espacios.

Fases y tareas generales

El procedimiento se divide en cinco fases operativas, cada una con tareas, responsables y productos verificables.

Fase 1. Preparación e implementación de la solución

Objetivo específico. Instalar y configurar los elementos de mejora definidos, asegurando compatibilidad y funcionamiento inicial.

Tareas:

  1. Integrar los nuevos componentes definidos en la etapa 2 (capturadoras HDMI, interfaces de audio digital, extensores de cableado de HDMI por Ethernet, mezcladora digital de audio).
  2. Aplicar configuraciones estandarizadas en OBS en los ámbitos de resolución, cuadros por segundo, tasa de bits y perfil de codificación.
  3. Configurar perfiles diferenciados según el tipo de espacio, por medio de la verificación de todas las fuentes.
  4. Documentar todos los perfiles base de las configuraciones.

Entregable: Sistema de transmisión actualizado y funcional, listo para pruebas.

Fase 2. Ejecución de las pruebas piloto controladas

Objetivo específico: Probar la solución en condiciones reales, pero sin exposición pública.

Tareas:

  1. Realizar transmisiones privadas o no listadas en YouTube.
  2. Mantener la transmisión activa durante un periodo mínimo de 15 minutos para el aula, 20 minutos para el auditorio de DGTIC y 30 minutos para el auditorio de la Escuela Nacional de Trabajo Social.
  3. Durante las transmisiones, simular condiciones reales de uso de micrófonos, movimientos en el escenario y cambios de cámara.
  4. Monitorear y documentar los indicadores en tiempo real de cuadros perdidos, uso del procesador central en la computadora de codificación y estado de la red inalámbrica o alámbrica.

Entregable: Evidencia documentada del comportamiento de la solución de streaming mejorada.

Fase 3. Evaluación técnica del desempeño de la solución

Objetivo específico: Medir objetivamente si la solución implementada mejora la transmisión del streaming.

Tareas:

  1. Registrar los siguientes datos con relación al video: continuidad de señal sin cortes, estabilidad de los cuadros por segundo, ausencia de congelamientos o pixelación excesiva.
  2. Documentar los siguientes valores relativos al audio: nivel adecuado y constante, ausencia de eco y realimentación, reducción de ruido ambiente.
  3. Registro de los siguientes valores de red: tasa de bits sostenida sin caídas críticas. latencia estable y nulas desconexiones.
  4. Verificar los siguientes indicadores de procesamiento y codificación: uso de CPU dentro de rangos aceptables, ausencia de sobrecalentamiento de la computadora de codificación, estabilidad del software de codificación.

Entregable: Tabla comparativa de configuraciones previas y estado mejorado.

Fase 4. Ajustes correctivos y optimización

Objetivo específico: Refinar la solución con base en los resultados obtenidos y de ser necesario.

Tareas:

  1. Ajustar la tasa de bits y resolución según estabilidad real de la transmisión.
  2. Optimizar los filtros y ajustes de audio en la mezcladora.
  3. Simplificar las escenas y las fuentes en OBS si es necesario.
  4. Repetir las pruebas cortas tras cada ajuste.
  5. Actualizar documentación de la configuración final.

Entregable: Configuración optimizada y estable para operación continua.

Fase 5. Validación operativa final

Objetivo específico: Confirmar que la solución puede utilizarse de forma regular.

Tareas:

  1. Ejecutar una transmisión real con audiencia.
  2. Monitorear durante toda la sesión.
  3. Registrar incidencias (si las hubiera).
  4. Recabar retroalimentación básica de usuarios.

Entregable: Reporte de la operación en transmisión con audiencia.

Conclusión. Criterios de aceptación

La solución se considera validada cuando:

  1. No se presentan interrupciones críticas.
  2. El audio es claro y estable.
  3. El video mantiene continuidad y sincronía.
  4. La transmisión se sostiene sin alertas en YouTube.

Figura 1

Diagrama tipo de las conexiones de periféricos para transmisión de streaming mejorada. Caso Aula DGTIC

Nota. El software empleado para realizar el diagrama fue Microsoft Visio 2016.

Figura 2

Diagrama tipo de las conexiones de periféricos para transmisión de streaming mejorada. Caso Auditorio de la DGTIC

Nota. El software empleado para realizar el diagrama fue Microsoft Visio 2016.

Figura 3

Diagrama tipo de las conexiones de periféricos para transmisión de streaming mejorada. Caso Auditorio de la Escuela Nacional de Trabajo Social

Nota. El software empleado para realizar el diagrama fue Microsoft Visio 2016.