⬇⬇⬇⬇⬇⬇⬇⬇⬇⬇⬇⬇

🤲 Skulltronics Codec Test Compilation (CTC) V1.1

⟰⟰⟰⟰⟰⟰⟰⟰⟰⟰⟰⟰

 

Arraial do Cabo - 1960 - DVDRip - Short. WWE Main Event 2016 12 23 HDTV x264-Ebi [TJET. Stepping Into The Fire. Ayahuasca Documentary.

 

Eric Hufschmid - Masquerade Party - Part 3 - The Wizards of Zion.

 


4.6/ 5stars

 

 

 

[Docs] [txt | pdf | xml | html] [Rastreador] [WG] [Correo electrónico] [Diff1] [Diff2] [Nits] [IPR] Versiones: (draft-daede-netvc-testing) 00 01 02 03 04 05 06 07 08 09 Grupo de trabajo de red T. Daede Borrador de Internet de Mozilla Estado previsto: Informativo A. Norkin Expira: 3 de agosto de 2020 Netflix I. Brailovskiy Amazon Lab126 31 de enero de 2020 Prueba de códec de video y medición de calidad draft-ietf-netvc-testing-09 Resumen Este documento describe pautas y procedimientos para evaluar un códec de vídeo. Esto cubre pruebas subjetivas y objetivas, prueba condiciones y materiales utilizados para la prueba. Estado de esta nota Este borrador de Internet se presenta en total conformidad con el disposiciones de BCP 78 y BCP 79. Los borradores de Internet son documentos de trabajo de la Ingeniería de Internet Fuerza de Tarea (IETF). Tenga en cuenta que otros grupos también pueden distribuir documentos de trabajo como borradores de Internet. La lista de Internet actual Drafts está en. Los borradores de Internet son borradores de documentos válidos por un máximo de seis meses. y puede ser actualizado, reemplazado u obsoleto por otros documentos en cualquier hora. Es inapropiado usar borradores de Internet como referencia material o para citarlos de otra manera que no sea "trabajo en progreso". Este borrador de Internet vencerá el 3 de agosto de 2020. Aviso de copyright Copyright (c) 2020 IETF Trust y las personas identificadas como autores de documentos. Todos los derechos reservados. Este documento está sujeto a BCP 78 y al IETF Trust's Legal Disposiciones relativas a los documentos IETF () vigente en la fecha de publicación de este documento. Por favor revise estos documentos cuidadosamente, ya que describen sus derechos y restricciones con respeto a este documento Los componentes de código extraídos de este documento deben incluir texto de licencia BSD simplificado como se describe en la Sección 4. e de Daede y col. Expira el 3 de agosto de 2020 [Página 1] Borrador de Internet Códec de video Prueba y medición de calidad Enero 2020 las disposiciones legales de Trust y se proporcionan sin garantía como descrito en la Licencia BSD simplificada. Tabla de contenido 1. Introducción ........................ 3 2. Pruebas de calidad subjetiva .................. 1. Comparación de pares de imágenes fijas ............... 2. Comparación de pares de video. ................. 4 2. 3. Puntuación media de opinión ................... 4 3. Métricas objetivas ...................... 5 3. PSNR general ...................... PSNR con promedio de cuadros ................... PSNR -HVS-M ....................... 6 3. 4. SSIM .......................... 5. Multi-Scale SSIM ............. ....... 6. CIEDE2000 ........................ 7. VMAF ............. ............. 6 4. Comparación e interpretación de resultados ............. 7 4. Graficando ........................ BD-Rate .................... ..... Rangos ......................... 8 5. Secuencias de prueba ....................... Fuentes ...................... ... Conjuntos de prueba ........................ regresión-1 .................. .. 9 5. objetivo-2-lento .................. objetivo-2-rápido .................. 12 5. objetivo-1. 1 .................... 14 5. objetivo-1-rápido .................. 17 5. Puntos de operación .................... 19 5. Configuraciones comunes ................... CQP de alta latencia .................. CQP de baja latencia ... ................ Alta latencia sin restricciones ............. 20 5. Baja latencia sin restricciones .............. 20 6. Automatización ......................... Pruebas de regresión .................... 21 6. Pruebas de desempeño objetivas ............... Pruebas periódicas ..................... 22 7. Consideraciones de la IANA ..................... 22 8. Consideraciones de seguridad ................... 22 9. Referencias informativas ................... 22 Direcciones de los autores ....................... 23 Daede y col. Expira el 3 de agosto de 2020 [Página 2] 1. Introducción Al desarrollar un códec de video, cambios y adiciones al códec deben decidirse en función de sus compensaciones de rendimiento. En Además, se necesitan mediciones para determinar cuándo se ha reunido el códec Sus objetivos de rendimiento. Este documento especifica cómo deben realizarse las pruebas ser llevado a cabo para garantizar comparaciones válidas al evaluar cambios bajo consideración. Los autores de características o cambios deben proporcionar Los resultados de la prueba apropiada al proponer códec modificaciones 2. Pruebas de calidad subjetiva Las pruebas subjetivas utilizan espectadores humanos para calificar y comparar la calidad de videos Es el método preferible para probar códecs de video. Los resultados de las pruebas subjetivas tienen prioridad sobre las pruebas objetivas resultados, cuando estén disponibles. Se recomienda realizar pruebas subjetivas. especialmente cuando se aprovechan los efectos psicovisuales que pueden no estar bien representado por métricas objetivas, o cuando diferentes objetivos las métricas no están de acuerdo. La selección de una metodología de prueba depende de la característica probado y los recursos disponibles. Se presentan metodologías de prueba. con el fin de aumentar la precisión y el costo. Las pruebas dependen de los recursos de los participantes. Si un participante requiere una prueba subjetiva para una característica o mejora particular, son responsables de garantizar que los recursos estén disponibles. Esta asegura que solo se realicen pruebas importantes; en particular, las pruebas que son importantes para los participantes Las pruebas subjetivas deben usar los mismos puntos operativos que el pruebas objetivas 2. Comparación de pares de imágenes fijas Una manera simple de determinar la superioridad de una imagen comprimida es compare visualmente dos imágenes comprimidas y haga que el espectador juzgue cuál tiene una mayor calidad. Por ejemplo, esta prueba puede ser adecuado para un filtro intra-ringing, pero no para un nuevo inter modo de predicción Para esta prueba, las dos imágenes comprimidas deberían tienen tamaños de archivo comprimido similares, con una imagen que no es más de 5% más grande que el otro. Además, al menos 5 imágenes diferentes debe ser comparado Daede y col. Expira el 3 de agosto de 2020 [Página 3] Una vez que se completa la prueba, se puede calcular un valor p utilizando Prueba binomial. Un resultado significativo debe tener un valor p resultante menor o igual que 0. Por ejemplo: p_value = binom_test (a, a + b) donde a es el número de votos para un video, b es el número de votos vota por el segundo video, y binom_test (x, y) devuelve el binomio PMF (función de masa de probabilidad) con x pruebas observadas, y pruebas totales, y probabilidad esperada 0. 5. Si se permite informar los empates, entonces se modifica la ecuación: p_value = binom_test (a + floor (t / 2), a + b + t) donde t es el número de votos empatados. La comparación de pares de imágenes fijas se utiliza para comparaciones rápidas durante desarrollo: el espectador puede ser un desarrollador o un usuario, por ejemplo. Como los resultados son solo relativos, es efectivo incluso con Un entorno de visualización inconsistente. Porque esta prueba solo usa imágenes fijas (fotogramas clave), esto solo es adecuado para cambios con efecto similar o nulo en inter cuadros. 2. Comparación de pares de video El método de comparación de pares de imágenes fijas también se puede modificar para compara vidoes. Esto es necesario cuando se realizan cambios con temporal efectos, como cambios en la predicción entre cuadros. Par de videos Las comparaciones siguen el mismo procedimiento que las imágenes fijas. Videos usados para la prueba debe limitarse a 10 segundos de duración y puede ser volvió a ver un número ilimitado de veces. 2. Puntuación media de opinión Una prueba de visualización del puntaje de opinión promedio (MOS) es el método preferido de evaluando la calidad. La prueba subjetiva debe realizarse como mostrando consecutivamente las secuencias de video en una pantalla o en Dos pantallas ubicadas una al lado de la otra. El procedimiento de prueba debe normalmente sigue las reglas descritas en [BT500] y se realiza con sujetos de prueba expertos. El resultado de la prueba será (dependiendo de el procedimiento de prueba) puntajes de opinión promedio (MOS) o promedio diferencial puntajes de opinión (DMOS). Los intervalos de confianza también se calculan para juzgar si la diferencia entre dos codificaciones es estadísticamente significativo. En ciertos casos, una prueba de visualización con prueba experta los sujetos pueden realizarse, por ejemplo, si una prueba debe evaluar tecnologías con un rendimiento similar con respecto a un particular artefacto (por ejemplo, filtros de bucle o predicción de movimiento). A diferencia de par Daede y col. Expira el 3 de agosto de 2020 [Página 4] En comparación, una prueba MOS requiere un entorno de prueba consistente. Esto significa que para pruebas a gran escala o distribuidas, empareje Se prefieren las comparaciones. 3. Métrica objetiva Las métricas objetivas se utilizan en lugar de las métricas subjetivas para facilitar y experimentos repetibles. Las métricas más objetivas han sido diseñado para correlacionarse con puntajes subjetivos. Las siguientes descripciones dan una visión general del funcionamiento de cada de las métricas. Debido a que los detalles de implementación a veces pueden variar, la implementación exacta se especifica en C en las herramientas de Daala repositorio [DAALA-GIT]. Las implementaciones de métricas deben directamente admite la resolución de entrada, profundidad de bits y formato de muestreo. A menos que se especifique lo contrario, todas las métricas descritas a continuación solo aplicar al plano luma, individualmente por marco. Cuando se aplica a la video, los puntajes de cada cuadro se promedian para crear el final Puntuación. Los códecs deben generar la misma resolución, profundidad de bits y muestreo formato como la entrada. 3. PSNR general PSNR es una métrica de calidad de señal tradicional, medida en decibelios. Se deriva directamente del error cuadrático medio (MSE), o su cuadrado raíz (RMSE). La fórmula utilizada es: 20 * log10 (MAX / RMSE) o equivalente: 10 * log10 (MAX ^ 2 / MSE) donde se calcula el error en todos los píxeles del video, que es el método usado en dump_psnr. c implementación de referencia. Esta métrica se puede aplicar a los planos luma y croma, con Todos los aviones se informan por separado. 3. PSNR con promedio de cuadros PSNR también se puede calcular por cuadro, y luego se promedian los valores juntos. Esto se informa de la misma manera que el PSNR general. Daede y col. Expira el 3 de agosto de 2020 [Página 5] 3. PSNR-HVS-M La métrica PSNR-HVS [PSNRHVS] realiza una transformación DCT de 8x8 bloques de la imagen, pondera los coeficientes y luego calcula el PSNR de esos coeficientes. Varios conjuntos diferentes de pesas han sido considerado. Los pesos utilizados por dump_pnsrhvs. herramienta c en el Daala Se ha encontrado que el repositorio es la mejor combinación para puntajes reales de MOS. 3. SSIM SSIM (métrica de imagen de similitud estructural) es una calidad de imagen fija métrica introducida en 2004 [SSIM]. Calcula una puntuación para cada píxel individual, utilizando una ventana de píxeles vecinos. Estos puntajes luego se puede promediar para producir una puntuación global para toda la imagen. El artículo original produce puntajes que oscilan entre 0 y 1. Para linealizar la métrica para el cálculo de la tasa de BD, la puntuación es convertido a una escala de decibelios no lineal: -10 * log10 (1 - SSIM) 3. SSIM multiescala Multi-Scale SSIM es SSIM extendido a múltiples tamaños de ventana [MSSSIM]. El puntaje métrico se convierte a decibelios de la misma manera que SSIM. 3. CIEDE2000 CIEDE2000 es una métrica basada en distancias de color CIEDE [CIEDE2000]. Eso genera una puntuación única teniendo en cuenta los tres planos de croma. No tiene en cuenta ninguna similitud estructural o Otros efectos psicovisuales. 3. VMAF Video Multi-method Assessment Fusion (VMAF) es una referencia completa métrica de calidad de video perceptual que tiene como objetivo aproximarse a los humanos percepción de la calidad del video [VMAF]. Esta métrica se centra en degradación de la calidad debido a la compresión y al reescalado. Estimaciones de VMAF el puntaje de calidad percibido al calcular puntajes de calidad múltiple algoritmos de evaluación, y fusionándolos usando una máquina de vectores de soporte (SVM). Actualmente, tres métricas de fidelidad de imagen y una temporal la señal se ha elegido como características para el SVM, a saber, SNR antirruido (ANSNR), Medida de pérdida de detalle (DLM), Fidelidad de información visual (VIF), y la diferencia de píxeles de ubicación conjunta de un cuadro con respecto al marco anterior. Daede y col. Expira el 3 de agosto de 2020 [Página 6] El puntaje de calidad de VMAF se usa directamente para calcular la tasa de BD, sin conversiones 4. Comparación e interpretación de resultados 4. Gráficos Cuando se muestra en un gráfico, la tasa de bits se muestra en el eje X, y el la métrica de calidad está en el eje Y. Para su publicación, el eje X debe ser lineal La métrica del eje Y debe trazarse en decibelios. Si el la métrica de calidad no informa de forma nativa la calidad en decibelios, debe convertirse como se describe en la sección anterior. 4. Velocidad de BD La diferencia de tasa de Bjontegaard, también conocida como tasa de BD, permite medición de la reducción de la tasa de bits ofrecida por un códec o códec característica, manteniendo la misma calidad medida por objetivo métrica. El cambio de tasa se calcula como el porcentaje promedio diferencia en la tasa en un rango de cualidades. Rangos de puntaje métrico no son estáticos: se calculan a partir de un rango de tasas de bits del códec de referencia, o de cuantificadores de un tercero, códec de anclaje. Dado un códec de referencia y un códec de prueba, se calculan los valores de velocidad de BD como sigue: o Los puntos de velocidad / distorsión se calculan para la referencia y la prueba. códec * Se deben calcular al menos cuatro puntos. Estos puntos deberían ser los mismos cuantificadores al comparar dos versiones de la misma * Se deben descartar puntos adicionales fuera del rango. o Las tasas se convierten en tasas de registro. o Un polinomio de interpolación de hermita cúbica por partes se ajusta al puntos para cada códec para producir funciones de velocidad de registro en términos de distorsión. o Se calculan los rangos de puntuación métrica: * Si se comparan dos versiones del mismo códec, la superposición es la intersección de las dos curvas, unidas por el cuantificador elegido puntos. * Si se comparan códecs diferentes, la métrica de un tercer códec de anclaje las puntuaciones en cuantificadores fijos se usan directamente como límites. Daede y col. Expira el 3 de agosto de 2020 [Página 7] o La velocidad de registro se integra numéricamente en el rango métrico para cada curva, utilizando al menos 1000 muestras y trapezoidales integración. o Las tasas de registro integradas resultantes se convierten nuevamente en lineales tasa, y luego la diferencia porcentual se calcula a partir de la referencia al códec de prueba. 4. Rangos Para cambios de características individuales en libaom o libvpx, la superposición BD- Se debe utilizar el método de tasa con los cuantificadores 20, 32, 43 y 55. Para la evaluación final descrita en [], Los cuantificadores utilizados son 20, 24, 28, 32, 36, 39, 43, 47, 51 y 55. 5. Secuencias de prueba 5. Fuentes Se prefieren los clips de prueba sin pérdida para la mayoría de las pruebas, porque el estructura de artefactos de compresión en clips ya comprimidos puede Introducir ruido adicional en los resultados de la prueba. Sin embargo, una gran cantidad del contenido en Internet debe volver a comprimirse al menos una vez, por lo que Algunas fuentes de esta naturaleza son útiles. El codificador debe funcionar a la misma profundidad de bits que la fuente original. Además, las métricas necesitan para soportar la operación a alta profundidad de bits. Si uno o más códecs en un la comparación no admite una gran profundidad de bits, las fuentes deben ser convertido una vez antes de ingresar al codificador. 5. Conjuntos de prueba Las fuentes se dividen en varias categorías para probar diferentes escenarios en los que se requerirá el códec para operar. Para facilitar comparación, todos los videos en cada conjunto deben tener el mismo color submuestreo, misma resolución y el mismo número de fotogramas. En Además, todos los videos de prueba deben estar disponibles públicamente para su uso, para permitir la reproducibilidad de los resultados. Todos los conjuntos de prueba actuales son disponible para descargar [TESTSEQUENCES]. Las secuencias de prueba deben descargarse en su totalidad. No deben ser recreado a partir de las fuentes originales. Cada clip está etiquetado con su resolución, profundidad de bits, color submuestreo y longitud. Daede y col. Expira el 3 de agosto de 2020 [Página 8] 5. regresión-1 Este conjunto de pruebas se utiliza para pruebas de regresión básica. Contiene un Muy pequeño número de clips. o kirlandvga (640x360, 8 bits, 4: 2: 0, 300 cuadros) o FourPeople (1280x720, 8bit, 4: 2: 0, 60 cuadros) o Narrador (4096x2160, 10 bits, 4: 2: 0, 15 cuadros) o CSGO (1920x1080, 8 bits, 4: 4: 4 60 cuadros) 5. objetivo-2-lento Este conjunto de prueba es un conjunto de prueba completo, agrupado por resolución. Estos clips de prueba se crearon a partir de originales en [TESTSEQUENCES]. Han sido escalados y recortados para que coincidan con la resolución de su categoría. Este conjunto de prueba requiere un códec que admita 8 y 10 poco video 4096x2160, 4: 2: 0, 60 cuadros: o Netflix_BarScene_4096x2160_60fps_10bit_420_60f o Netflix_BoxingPractice_4096x2160_60fps_10bit_420_60f o Netflix_Dancers_4096x2160_60fps_10bit_420_60f o Netflix_Narrator_4096x2160_60fps_10bit_420_60f o Netflix_RitualDance_4096x2160_60fps_10bit_420_60f o Netflix_ToddlerFountain_4096x2160_60fps_10bit_420_60f o Netflix_WindAndNature_4096x2160_60fps_10bit_420_60f o street_hdr_amazon_2160p 1920x1080, 4: 2: 0, 60 cuadros: o aspen_1080p_60f o crowd_run_1080p50_60f o ducks_take_off_1080p50_60f o guitar_hdr_amazon_1080p Daede y col. Expira el 3 de agosto de 2020 [Página 9] o life_1080p30_60f o Netflix_Aerial_1920x1080_60fps_8bit_420_60f o Netflix_Boat_1920x1080_60fps_8bit_420_60f o Netflix_Crosswalk_1920x1080_60fps_8bit_420_60f o Netflix_FoodMarket_1920x1080_60fps_8bit_420_60f o Netflix_PierSeaside_1920x1080_60fps_8bit_420_60f o Netflix_SquareAndTimelapse_1920x1080_60fps_8bit_420_60f o Netflix_TunnelFlag_1920x1080_60fps_8bit_420_60f o old_town_cross_1080p50_60f o pan_hdr_amazon_1080p o park_joy_1080p50_60f o pedestrian_area_1080p25_60f o rush_field_cuts_1080p_60f o rush_hour_1080p25_60f o seaplane_hdr_amazon_1080p o station2_1080p25_60f o touchdown_pass_1080p_60f 1280x720, 4: 2: 0, 120 cuadros: o boat_hdr_amazon_720p o dark720p_120f o FourPeople_1280x720_60_120f o gipsrestat720p_120f o Johnny_1280x720_60_120f o KristenAndSara_1280x720_60_120f Daede y col. Expira el 3 de agosto de 2020 [Página 10] o Netflix_DinnerScene_1280x720_60fps_8bit_420_120f o Netflix_DrivingPOV_1280x720_60fps_8bit_420_120f o Netflix_FoodMarket2_1280x720_60fps_8bit_420_120f o Netflix_RollerCoaster_1280x720_60fps_8bit_420_120f o Netflix_Tango_1280x720_60fps_8bit_420_120f o rain_hdr_amazon_720p o vidyo1_720p_60fps_120f o vidyo3_720p_60fps_120f o vidyo4_720p_60fps_120f 640x360, 4: 2: 0, 120 cuadros: o blue_sky_360p_120f o controller_burn_640x360_120f o escritorio2360p_120f o kirland360p_120f o mmstationary360p_120f o niklas360p_120f o rain2_hdr_amazon_360p o red_kayak_360p_120f o riverbed_360p25_120f o escudos2_640x360_120f o snow_mnt_640x360_120f o speed_bag_640x360_120f o estocolmo_640x360_120f o tacomanarrows360p_120f Daede y col. Expira el 3 de agosto de 2020 [Página 11] o thaloundeskmtg360p_120f o water_hdr_amazon_360p 426x240, 4: 2: 0, 120 cuadros: o bqfree_240p_120f o bqhighway_240p_120f o bqzoom_240p_120f o chairlift_240p_120f o dirtbike_240p_120f o mozzoom_240p_120f 1920x1080, 4: 4: 4 o 4: 2: 0, 60 cuadros: o CSGO_60f. y4m o DOTA2_60f_420. y4m o MINECRAFT_60f_420. y4m o STARCRAFT_60f_420. y4m o EuroTruckSimulator2_60f. y4m o Hearthstone_60f. y4m o wikipedia_420. y4m o pvq_slideshow. y4m 5. objetivo-2-rápido Este conjunto de pruebas es un subconjunto estricto de objetivo-2-lento. Esta diseñado para un tiempo de ejecución más rápido Este conjunto de prueba requiere compilación con bit alto soporte de profundidad. Daede y col. Expira el 3 de agosto de 2020 [Página 12] o Netflix_DrivingPOV_1280x720_60fps_8bit_420_60f o Netflix_RollerCoaster_1280x720_60fps_8bit_420_60f Daede y col. Expira el 3 de agosto de 2020 [Página 13] 1290x1080, 4: 2: 0, 60 cuadros: 5. 1 Este conjunto de prueba es una versión anterior de Objective-2-slow. 4096x2160, 10 bits, 4: 2: 0, 60 cuadros: o Antena (marco inicial 600) o BarScene (marco de inicio 120) o Barco (marco de inicio 0) o BoxingPractice (marco inicial 0) o Paso de peatones (marco de inicio 0) o bailarines (comienzo del cuadro 120) Daede y col. Expira el 3 de agosto de 2020 [Página 14] o FoodMarket o narrador o PierSeaside o RitualDance o SquareAndTimelapse o Fuente para niños pequeños (marco de inicio 120) o TunnelFlag o WindAndNature (marco inicial 120) 1920x1080, 8 bits, 4: 4: 4, 60 cuadros: o CSGO o DOTA2 o EuroTruckSimulator2 o Hearthstone o MINECRAFT o STARCRAFT o wikipedia o pvq_slideshow 1920x1080, 8 bits, 4: 2: 0, 60 cuadros: o ducks_take_off o vida o álamo temblón o crowd_run o old_town_cross o park_joy Daede y col. Expira el 3 de agosto de 2020 [Página 15] o zona_peatonal o rush_field_cuts o rush_hour o station2 o touchdown_pass 1280x720, 8 bits, 4: 2: 0, 60 cuadros: o Netflix_FoodMarket2 o Netflix_Tango o DrivingPOV (marco de inicio 120) o DinnerScene (marco de inicio 120) o RollerCoaster (marco inicial 600) o FourPeople o Johnny o KristenAndSara o vidyo1 o vidyo3 o vidyo4 o dark720p o gipsrecmotion720p o gipsrestat720p o quemadura controlada o estocolmo o speed_bag o snow_mnt Daede y col. Expira el 3 de agosto de 2020 [Página 16] o escudos 640x360, 8 bits, 4: 2: 0, 60 cuadros: o red_kayak o blue_sky o cauce del río o thaloundeskmtgvga o kirlandvga o tacomanarrowsvga o tacomascmvvga o desktop2360p o mmmovingvga o mmstationaryvga o niklasvga 5. objetivo-1-rápido Esta es una versión antigua de aim-2-fast. Daede y col. Expira el 3 de agosto de 2020 [Página 17] Daede y col. Expira el 3 de agosto de 2020 [Página 18] 5. Puntos de operación Se definen cuatro modos de operación. La alta latencia está destinada a demanda de transmisión, transmisión en vivo de uno a muchos y video almacenado. Bajo la latencia está destinada a videoconferencias y acceso remoto. Ambos estos modos vienen en CQP (parámetro de cuantificador constante) y variantes sin restricciones. Al probar conjuntos de imágenes fijas, como subset1, debe usarse el modo CQP de alta latencia. 5. Configuraciones comunes Los codificadores deben configurarse con su mejor configuración cuando se comparados entre sí: o av1: -codec = av1 -ivf -frame-parallel = 0 -tile-columnas = 0 -cpu-used = 0 -procesos = 1 5. CQP de alta latencia High Latency CQP se utiliza para evaluar cambios incrementales en un códec Este método es muy adecuado para comparar códecs con similares herramientas de codificación Permite funciones de códec con retraso de trama intrínseco. o daala: -v = x -b 2 o vp9: -end-use = q -cq-level = x -lag-in-frames = 25 -auto-alt-ref = 2 o av1: -end-use = q -cq-level = x -auto-alt-ref = 2 5. Baja latencia CQP El CQP de baja latencia se utiliza para evaluar cambios incrementales en un herramientas de codificación Requiere que el códec esté configurado para cero intrínseco Retraso de trama. o daala: -v = x o av1: -end-use = q -cq-level = x -lag-in-frames = 0 Daede y col. Expira el 3 de agosto de 2020 [Página 19] 5. Alta latencia sin restricciones El codificador debe ejecutarse en el modo de mejor calidad disponible, utilizando El modo que proporcionará la mejor calidad por bitrate (VBR o modo de calidad constante). Se permiten anticipaciones y / o dos pases, si soportado. Se proporciona un parámetro para ajustar la tasa de bits, pero el Las unidades son arbitrarias. Siguen configuraciones de ejemplo: o x264: -crf = x o x265: -crf = x o av1: -end-use = q -cq-level = x -lag-in-frames = 25 -auto-alt-ref = 2 5. Baja latencia sin restricciones modo de calidad constante), pero sin retardo de trama, almacenamiento en búfer o anticipación esta permitido. Se proporciona un parámetro para ajustar la tasa de bits, pero el o x264: -crf-x -tune zerolatency o x265: -crf = x -tune zerolatency 6. Automatización Las comparaciones objetivas frecuentes son extremadamente beneficiosas mientras desarrollando un nuevo códec. Existen varias herramientas para automatizar proceso de comparaciones objetivas. La herramienta Compare-Codecs permite BD- curvas de velocidad que se generarán para una amplia variedad de códecs [COMPARECODECS]. El repositorio de origen de Daala contiene un conjunto de scripts que pueden usarse para automatizar las diversas métricas utilizadas. En Además, estos scripts pueden ejecutarse automáticamente utilizando computadoras distribuidas para resultados rápidos, con rd_tool [RD_TOOL]. Esta la herramienta se puede ejecutar a través de una interfaz web llamada AreWeCompressedYet [AWCY], o localmente. Debido a restricciones computacionales, varios niveles de prueba son especificado. Daede y col. Expira el 3 de agosto de 2020 [Página 20] 6. Pruebas de regresión Las pruebas de regresión se ejecutan en un pequeño número de secuencias cortas: prueba de regresión-1. Las pruebas de regresión deben incluir una serie de Diversas condiciones de prueba. El propósito de las pruebas de regresión es Asegúrese de que las correcciones de errores (y parches similares) no afecten negativamente actuación. El ancla en las pruebas de regresión es la revisión anterior. del códec en control de fuente. Las pruebas de regresión se ejecutan en ambos modos CQP de alta y baja latencia 6. Pruebas de desempeño objetivas Cambios que se espera que afecten la calidad de la codificación o Bitstream debe ejecutar una prueba de rendimiento objetiva. El desempeño Las pruebas deben ejecutarse en un mayor número de secuencias. El seguimiento los datos deben ser reportados: o Información de identificación para el codificador utilizado, como el git cometer hash. o Opciones de línea de comando para el codificador, configurar script y cualquier otra cosa necesaria para replicar el experimento. o El nombre de la ejecución del conjunto de prueba (objetivo-1-rápido) o Para los modos CQP de alta y baja latencia, y para cada objetivo métrico: * La puntuación de BD-Rate, en porcentaje, para cada clip. * El promedio de todos los puntajes de BD-Rate, igualmente ponderados, para cada categoría de resolución en el conjunto de prueba. * El promedio de todos los puntajes de BD-Rate para todos los videos en todos categorías. Normalmente, el codificador siempre debe ejecutarse a la velocidad más lenta ajuste de velocidad de calidad (cpu-used = 0 en el caso de AV1 y VP9). Sin embargo, en el caso del tiempo de cálculo, tanto la referencia como El codificador modificado se puede construir con algunas opciones deshabilitadas. Para AV1, - disable-ext_partition y -disable-ext_partition_types se pueden pasar al script de configuración para acelerar sustancialmente la codificación, pero el El uso de estas opciones se debe informar en los resultados de la prueba. Daede y col. Expira el 3 de agosto de 2020 [Página 21] 6. Pruebas periódicas. Las pruebas periódicas se ejecutan en una amplia gama de velocidades de bits para medir progresar con el tiempo, así como detectar posibles regresiones perdidas por otras pruebas 7. Consideraciones de la IANA Este documento no requiere ninguna acción de la IANA. 8. Consideraciones de seguridad Este documento describe las metodologías y procedimientos para prueba cualitativa, por lo tanto, no tiene implicaciones para red de decodificador de seguridad. 9. Referencias informativas [AWCY], "¿Ya estamos comprimidos?", 2016, <>. [BT500] UIT-R, "Recomendación UIT-R BT. 500-13", 2012, < BT. 500-13-201201-I !! >. [CIEDE2000] Yang, Y., Ming, J. y N. Yu, "Calidad de imagen en color Evaluación basada en CIEDE2000 ", 2012, [COMPARECODECS] Alvestrand, H., "Comparar códecs", 2015, [DAALA-GIT], "Daala Git Repository", 2015, <; a = resumen>. [] Filippov, A., Norkin, A. y j., "Requisitos del códec de video y Metodología de Evaluación ", draft-ietf-netvc- requisitos-10 (trabajo en progreso), noviembre de 2019. [MSSSIM] Wang, Z., Simoncelli, E. y A. Bovik, "Multi-Scale Similitud estructural para la evaluación de calidad de imagen ", n. D., Daede y col. Expira el 3 de agosto de 2020 [Página 22] [PSNRHVS] Egiazarian, K., Astola, J., Ponomarenko, N., Lukin, V., Battisti, F. y M. Carli, "Una nueva calidad de referencia completa Métricas basadas en HVS ", 2002. [RD_TOOL], "rd_tool", 2016, [SSIM] Wang, Z., Bovik, A., Sheikh, H. y E. Simoncelli, "Imagen Evaluación de calidad: de la visibilidad del error al estructural Similitud ", 2004, [TESTSEQUENCES] Daede, T., "Conjuntos de prueba", n. re., [VMAF] Aaron, A., Li, Z., Manohara, M., Lin, J., Wu, E. y C. Kuo, "VMAF - Video Fusión de evaluación de métodos múltiples", 2015, Direcciones de los autores Thomas Daede Mozilla Email: Andrey Norkin Netflix Ilya Brailovskiy Daede y col. Expira el 3 de agosto de 2020 [Página 23] Marcado HTML producido por rfcmarkup 1. 129d, disponible en.

Copyright © 2020 yokuroan's Ownd. Desarrollado por AmebaOwnd 無 料 で ホ ー ム ペ ー ジ を つ く ろ う. Pornografía (Clips de película) Subido 04-10 2015, tamaño 415. 55 MiB, ULed por manam69 0 0 1 Subido el 22/05/2015, Tamaño 451. 88 MiB, ULed by manam69 Subido 06-19 2015, tamaño 414. 9 MiB, ULed por manam69 Subido 05-16 2015, Tamaño 458. 68 MiB, ULed by manam69 Subida el 05-02 2015, tamaño 416. 74 MiB, ULed by manam69 Subido el 05-23 2015, tamaño 450. 31 MiB, ULed por manam69 Subido el 23/04/2015, Tamaño 262. 13 MiB, ULed by manam69 Subido 04-20 2015, Tamaño 389. 07 MiB, ULed por manam69 Subido 06-20 2015, Tamaño 407. 15 MiB, ULed por manam69 Subido el 06-27 2015, Tamaño 252. 63 MiB, ULed por manam69 Subido 04-11 2015, Tamaño 299. 29 MiB, ULed por manam69 Subido 30/06/2015, Tamaño 338. 16 MiB, ULed by manam69 Subido el 14/04/2015, Tamaño 435. 46 MiB, ULed by manam69 Subido 04-07 2015, Tamaño 294. 78 MiB, ULed por manam69 Subido 06-20 2015, Tamaño 287. 09 MiB, ULed by manam69 Subido el 23/06 2015, tamaño 417. 55 MiB, ULed por manam69 Subido 04-18 2015, tamaño 411. 13 MiB, ULed por manam69 Subido 05-11 2015, Tamaño 370. 97 MiB, ULed por manam69 Subido 04-20 2015, tamaño 466. 75 MiB, ULed por manam69 Subido el 22/06 2015, Tamaño 402. 58 MiB, ULed by manam69 Subido 04-13 2015, Tamaño 383. 61 MiB, ULed por manam69 Vídeo ( Videos musicales) Subido del 10 al 23 de 2011, tamaño 26. 61 GiB, ULed por TrainToAlaska Subido el 13/05/2015, tamaño 258. 59 MiB, ULed by manam69 Subido 04-10 2015, Tamaño 674. 6 MiB, ULed por manam69 Subido 05-04 2015, Tamaño 644. 65 MiB, ULed por manam69 Subido el 05-01 2015, Tamaño 669. 06 MiB, ULed by manam69 Subido el 29/06/2015, Tamaño 661. 23 MiB, ULed by manam69 Subido 07-03 2015, Tamaño 616. 18 MiB, ULed by manam69 Subido 05-11 2015, Tamaño 632. 74 MiB, ULed by manam69 Subido 06-24 2015, Tamaño 276 MiB, ULed por manam69 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30.

Pornografía (Clips de película) Subido el 07-04 2015, Tamaño 265. 45 MiB, ULed by manam69 0 0 1 Subido 06-20 2013, Tamaño 59. 76 MiB, ULed por ngongongo Subido 04-10 2015, Tamaño 311. 74 MiB, ULed por manam69 Subido 07-03 2015, Tamaño 471. 65 MiB, ULed por manam69 Subido el 23/04/2015, Tamaño 359. 98 MiB, ULed by manam69 Subido 04-10 2015, Tamaño 307. 24 MiB, ULed por manam69 Subido el 04-23 2015, tamaño 234. 15 MiB, ULed por manam69 Subido 11-22 2013, Tamaño 205. 35 MiB, ULed por Anónimo Subido 06-24 2015, tamaño 208. 85 MiB, ULed por manam69 Subido 11-22 2013, Tamaño 164. 21 MiB, ULed por Anónimo Subido 11-24 2013, Tamaño 416. 17 MiB, ULed por Anónimo Subido 05-04 2015, Tamaño 232. 89 MiB, ULed por manam69 Subido el 14/04/2015, Tamaño 282. 22 MiB, ULed by manam69 Subido 30/06/2015, Tamaño 329. 08 MiB, ULed by manam69 Subido 04-20 2015, Tamaño 389. 07 MiB, ULed por manam69 Subido del 11 al 21 de 2013, tamaño 312. 91 MiB, ULed by Anonymous Subido del 19 al 19 de 2015, tamaño 222. 65 MiB, ULed by manam69 Subido el 27/04/2015, Tamaño 240. 34 MiB, ULed por manam69 Subido 04-24 2015, tamaño 438. 74 MiB, ULed por manam69 Subido 06-06 2012, Tamaño 159. 24 MiB, ULed por kea12345678 Subido 04-20 2015, Tamaño 284. 77 MiB, ULed por manam69 Subido el 07-02 2015, tamaño 439. 1 MiB, ULed por manam69 Subido 11-24 2013, Tamaño 310. 08 MiB, ULed por Anónimo Subido 06-25 2015, tamaño 211. 2 MiB, ULed por manam69 Subido 04-24 2015, Tamaño 332. 78 MiB, ULed por manam69 Subido 04-10 2015, Tamaño 324. 55 MiB, ULed por manam69 Subido el 13/04/2015, Tamaño 279. 59 MiB, ULed by manam69 Subido el 27/06/2015, Tamaño 407. 6 MiB, ULed por manam69 Subido el 23/04/2015, Tamaño 413. 76 MiB, ULed by manam69 Subido 04-17 2015, Tamaño 243. 71 MiB, ULed por manam69 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41.

Prueba de códec de video y medición de calidad draft-ietf-netvc-testing-08 Este documento describe pautas y procedimientos para evaluar un códec de video. Esto cubre pruebas subjetivas y objetivas, condiciones de prueba y materiales utilizados para la prueba. Este borrador de Internet se presenta en total conformidad con las disposiciones de BCP 78 y BCP 79. Los borradores de Internet son documentos de trabajo del Internet Engineering Task Force (IETF). Tenga en cuenta que otros grupos también pueden distribuir documentos de trabajo como borradores de Internet. La lista de borradores actuales de Internet está en. Los borradores de Internet son borradores de documentos válidos por un máximo de seis meses y pueden ser actualizados, reemplazados u obsoletos por otros documentos en cualquier momento. Es inapropiado usar Borradores de Internet como material de referencia o citarlos de otra manera que no sea "trabajo en progreso". Este borrador de Internet vencerá el 29 de julio de 2019. Copyright (c) 2019 IETF Trust y las personas identificadas como autores del documento. Todos los derechos reservados. Este documento está sujeto a BCP 78 y a las Disposiciones legales del Fideicomiso IETF relacionadas con los documentos IETF () vigentes en la fecha de publicación de este documento. Revise estos documentos detenidamente, ya que describen sus derechos y restricciones con respecto a este documento. Los componentes de código extraídos de este documento deben incluir el texto de Licencia BSD simplificada como se describe en la Sección 4. e de las Disposiciones legales de confianza y se proporcionan sin garantía como se describe en la Licencia BSD simplificada. 1. Introducción 2. Pruebas de calidad subjetiva 2. 1. Comparación de pares de imágenes fijas 2. 2. Comparación de video par 2. 3. Puntuación media de opinión 3. Métrica objetiva 3. PSNR general 3. PSNR con promedio de cuadros 3. PSNR-HVS-M 3. 4. SSIM 3. 5. SSIM multiescala 3. 6. CIEDE2000 3. 7. VMAF 4. Comparación e interpretación de resultados 4. Gráficos 4. Velocidad de BD 4. Rangos 5. Secuencias de prueba 5. Fuentes 5. Conjuntos de prueba 5. regresión-1 5. objetivo-2-lento 5. objetivo-2-rápido 5. objetivo-1. 1 5. objetivo-1-rápido 5. Puntos de operación 5. Configuraciones comunes 5. CQP de alta latencia 5. Baja latencia CQP 5. Alta latencia sin restricciones 5. Baja latencia sin restricciones 6. Automatización 6. Pruebas de regresión 6. Pruebas de desempeño objetivas 6. Pruebas periódicas. 7. Referencias informativas Direcciones de los autores Al desarrollar un códec de video, los cambios y adiciones al códec deben decidirse en función de sus compensaciones de rendimiento. Además, se necesitan mediciones para determinar cuándo el códec ha cumplido sus objetivos de rendimiento. Este documento especifica cómo se llevarán a cabo las pruebas para garantizar comparaciones válidas al evaluar los cambios bajo consideración. Los autores de características o cambios deben proporcionar los resultados de la prueba apropiada al proponer modificaciones de códec. La prueba subjetiva es el método preferible para probar códecs de video. Los resultados de las pruebas subjetivas tienen prioridad sobre los resultados de las pruebas objetivas, cuando están disponibles. Las pruebas subjetivas se recomiendan especialmente cuando se aprovechan los efectos psicovisuales que pueden no estar bien representados por métricas objetivas, o cuando diferentes métricas objetivas no están de acuerdo. La selección de una metodología de prueba depende de la característica que se prueba y de los recursos disponibles. Las metodologías de prueba se presentan en orden de mayor precisión y costo. Las pruebas dependen de los recursos de los participantes. Por esta razón, incluso si el grupo acepta que una prueba en particular es importante, si nadie se ofrece voluntariamente para hacerlo, o si los voluntarios no la completan de manera oportuna, entonces esa prueba debe descartarse. Esto asegura que solo se realicen pruebas importantes; en particular, las pruebas que son importantes para los participantes. Las pruebas subjetivas deben usar los mismos puntos operativos que las pruebas objetivas. Una manera simple de determinar la superioridad de una imagen comprimida es comparar visualmente dos imágenes comprimidas y hacer que el espectador juzgue cuál tiene una calidad más alta. Por ejemplo, esta prueba puede ser adecuada para un filtro intra-ringing, pero no para un nuevo modo de predicción interna. Para esta prueba, las dos imágenes comprimidas deben tener tamaños de archivo comprimido similares, con una imagen que no sea más de un 5% más grande que la otra. Además, se deben comparar al menos 5 imágenes diferentes. Una vez que se completa la prueba, se puede calcular un valor p usando la prueba binomial. Un resultado significativo debe tener un valor p resultante menor o igual a 0. Por ejemplo: p_value = binom_test (a, a + b) donde a es el número de votos para un video, b es el número de votos para el segundo video y binom_test (x, y) devuelve el PMF binomial con x pruebas observadas, y pruebas totales y probabilidad esperada 0. 5. Si se permite informar los empates, entonces se modifica la ecuación: p_value = binom_test (a + floor (t / 2), a + b + t) donde t es el número de votos empatados. La comparación de pares de imágenes fijas se utiliza para realizar comparaciones rápidas durante el desarrollo; por ejemplo, el espectador puede ser un desarrollador o un usuario. Como los resultados son solo relativos, es efectivo incluso con un entorno de visualización inconsistente. Debido a que esta prueba solo usa imágenes fijas (fotogramas clave), esto solo es adecuado para cambios con efecto similar o sin efecto en inter cuadros. El método de comparación de pares de imágenes fijas se puede modificar para comparar también los videos. Esto es necesario cuando se realizan cambios con efectos temporales, como cambios en la predicción entre cuadros. Las comparaciones de pares de video siguen el mismo procedimiento que las imágenes fijas. Los videos utilizados para las pruebas deben limitarse a 10 segundos de duración y pueden volverse a ver un número ilimitado de veces. El método preferido para evaluar la calidad es una prueba de visualización del puntaje de opinión promedio (MOS). La prueba subjetiva debe realizarse ya sea mostrando consecutivamente las secuencias de video en una pantalla o en dos pantallas ubicadas una al lado de la otra. El procedimiento de prueba normalmente debe seguir las reglas descritas en [BT500] y debe realizarse con sujetos de prueba no expertos. El resultado de la prueba será (según el procedimiento de la prueba) puntajes de opinión promedio (MOS) o puntajes de opinión promedio diferencial (DMOS). Los intervalos de confianza también se calculan para juzgar si la diferencia entre dos codificaciones es estadísticamente significativa. En ciertos casos, se puede realizar una prueba de visualización con sujetos de prueba expertos, por ejemplo, si una prueba debe evaluar tecnologías con un rendimiento similar con respecto a un artefacto en particular (por ejemplo, filtros de bucle o predicción de movimiento). A diferencia de las comparaciones de pares, una prueba MOS requiere un entorno de prueba consistente. Esto significa que para pruebas a gran escala o distribuidas, se prefieren las comparaciones de pares. Las métricas objetivas se utilizan en lugar de las métricas subjetivas para experimentos fáciles y repetibles. La mayoría de las métricas objetivas se han diseñado para correlacionarse con puntuaciones subjetivas. Las siguientes descripciones ofrecen una visión general del funcionamiento de cada una de las métricas. Debido a que los detalles de implementación a veces pueden variar, la implementación exacta se especifica en C en el repositorio de herramientas de Daala [DAALA-GIT]. Las implementaciones de métricas deben admitir directamente la resolución de entrada, la profundidad de bits y el formato de muestreo. A menos que se especifique lo contrario, todas las métricas descritas a continuación solo se aplican al plano luma, individualmente por cuadro. Cuando se aplica al video, los puntajes de cada cuadro se promedian para crear el puntaje final. Los códecs deben generar la misma resolución, profundidad de bits y formato de muestreo que la entrada. PSNR es una métrica de calidad de señal tradicional, medida en decibelios. Se deriva directamente del error cuadrático medio (MSE) o de su raíz cuadrada (RMSE). La fórmula utilizada es: 20 * log10 (MAX / RMSE) o equivalente: 10 * log10 (MAX ^ 2 / MSE) donde el error se calcula sobre todos los píxeles en el video, que es el método utilizado en dump_psnr. c implementación de referencia. Esta métrica se puede aplicar a los planos luma y croma, y ​​todos los planos se informan por separado. PSNR también se puede calcular por cuadro, y luego los valores promediados juntos. Esto se informa de la misma manera que el PSNR general. La métrica PSNR-HVS realiza una transformación DCT de 8x8 bloques de la imagen, pondera los coeficientes y luego calcula el PSNR de esos coeficientes. Se han considerado varios conjuntos diferentes de pesos [PSNRHVS]. Los pesos utilizados por dump_pnsrhvs. Se ha encontrado que la herramienta c en el repositorio de Daala es la mejor coincidencia con las puntuaciones reales de MOS. SSIM (métrica de imagen de similitud estructural) es una métrica de calidad de imagen fija introducida en 2004 [SSIM]. Calcula una puntuación para cada píxel individual, utilizando una ventana de píxeles vecinos. Estos puntajes se pueden promediar para producir un puntaje global para toda la imagen. El artículo original produce puntajes que oscilan entre 0 y 1. Para linealizar la métrica para el cálculo de la tasa de BD, la puntuación se convierte en una escala de decibelios no lineal: -10 * log10 (1 - SSIM) Multi-Scale SSIM es SSIM extendido a múltiples tamaños de ventana [MSSSIM]. El puntaje métrico se convierte a decibelios de la misma manera que SSIM. CIEDE2000 es una métrica basada en distancias de color CIEDE [CIEDE2000]. Genera una puntuación única teniendo en cuenta los tres planos de croma. No tiene en cuenta ninguna similitud estructural u otros efectos psicovisuales. Video Multi-method Assessment Fusion (VMAF) es una métrica de calidad de video perceptual de referencia completa que tiene como objetivo aproximar la percepción humana de la calidad de video [VMAF]. Esta métrica se centra en la degradación de la calidad debido a la compresión y al reescalado. VMAF estima el puntaje de calidad percibido calculando puntajes de múltiples algoritmos de evaluación de calidad y fusionándolos usando una máquina de vectores de soporte (SVM). En la actualidad, se han elegido tres métricas de fidelidad de imagen y una señal temporal como características para la SVM, a saber, SNR antirruido (ANSNR), Medida de pérdida de detalle (DLM), Fidelidad de información visual (VIF) y la diferencia de píxeles media colocalizada de un cuadro con respecto al cuadro anterior. El puntaje de calidad de VMAF se usa directamente para calcular la tasa de BD, sin ninguna conversión. Cuando se muestra en un gráfico, la tasa de bits se muestra en el eje X y la métrica de calidad está en el eje Y. Para su publicación, el eje X debe ser lineal. La métrica del eje Y debe trazarse en decibelios. Si la métrica de calidad no informa de forma nativa la calidad en decibelios, debe convertirse como se describe en la sección anterior. La diferencia de velocidad de Bjontegaard, también conocida como velocidad de BD, permite la medición de la reducción de velocidad de bits que ofrece un códec o función de códec, mientras mantiene la misma calidad medida por las métricas objetivas. El cambio de tasa se calcula como la diferencia de porcentaje promedio en la tasa en un rango de cualidades. Los rangos de puntuación métrica no son estáticos: se calculan a partir de un rango de velocidades de bits del códec de referencia o de cuantificadores de un tercer códec de anclaje. Dado un códec de referencia y un códec de prueba, los valores de la tasa de BD se calculan de la siguiente manera: Los puntos de velocidad / distorsión se calculan para el códec de referencia y prueba. Se deben calcular al menos cuatro puntos. Estos puntos deberían ser los mismos cuantificadores cuando se comparan dos versiones del mismo códec. Se deben descartar puntos adicionales fuera del rango. Las tasas se convierten en tasas de registro. Un polinomio de interpolación de hermita cúbica por partes se ajusta a los puntos de cada códec para producir funciones de velocidad logarítmica en términos de distorsión. Se calculan los rangos de puntuación métrica: Si se comparan dos versiones del mismo códec, la superposición es la intersección de las dos curvas, unidas por los puntos cuantificadores elegidos. Si se comparan códecs diferentes, las puntuaciones métricas de un tercer códec de anclaje en cuantificadores fijos se usan directamente como límites. La velocidad de registro se integra numéricamente en el rango métrico para cada curva, utilizando al menos 1000 muestras e integración trapezoidal. Las tasas de registro integradas resultantes se convierten nuevamente en tasa lineal, y luego la diferencia porcentual se calcula a partir de la referencia al códec de prueba. Para cambios de características individuales en libaom o libvpx, se debe utilizar el método de superposición de BD-Rate con los cuantificadores 20, 32, 43 y 55. Para la evaluación final descrita en [], los cuantificadores utilizados son 20, 24, 28, 32, 36, 39, 43, 47, 51 y 55. Los clips de prueba sin pérdida se prefieren para la mayoría de las pruebas, porque la estructura de los artefactos de compresión en clips ya comprimidos puede introducir ruido adicional en los resultados de la prueba. Sin embargo, es necesario volver a comprimir una gran cantidad de contenido en Internet al menos una vez, por lo que algunas fuentes de esta naturaleza son útiles. El codificador debe ejecutarse a la misma profundidad de bits que la fuente original. Además, las métricas deben admitir la operación a alta profundidad de bits. Si uno o más códecs en una comparación no admiten una profundidad de bits alta, las fuentes deben convertirse una vez antes de ingresar al codificador. Las fuentes se dividen en varias categorías para probar diferentes escenarios en los que se requerirá que opere el códec. Para una comparación más fácil, todos los videos en cada conjunto deben tener el mismo submuestreo de color, la misma resolución y el mismo número de cuadros. Además, todos los videos de prueba deben estar disponibles públicamente para su uso, para permitir la reproducibilidad de los resultados. Todos los conjuntos de pruebas actuales están disponibles para descargar [TESTSEQUENCES]. Las secuencias de prueba deben descargarse en su totalidad. No deben recrearse a partir de las fuentes originales. Este conjunto de pruebas se utiliza para pruebas de regresión básica. Contiene una cantidad muy pequeña de clips. Kirlandvga (640x360, 8 bits, 4: 2: 0, 300 cuadros) FourPeople (1280x720, 8bit, 4: 2: 0, 60 cuadros) Narrador (4096x2160, 10 bits, 4: 2: 0, 15 cuadros) CSGO (1920x1080, 8 bits, 4: 4: 4 60 cuadros) Este conjunto de prueba es un conjunto de prueba completo, agrupado por resolución. Estos clips de prueba se crearon a partir de originales en [TESTSEQUENCES]. Han sido escalados y recortados para que coincidan con la resolución de su categoría. Este conjunto de prueba requiere compilación con soporte de alta profundidad de bits. 4096x2160, 4: 2: 0, 60 cuadros: Netflix_BarScene_4096x2160_60fps_10bit_420_60f Netflix_BoxingPractice_4096x2160_60fps_10bit_420_60f Netflix_Dancers_4096x2160_60fps_10bit_420_60f Netflix_Narrator_4096x2160_60fps_10bit_420_60f Netflix_RitualDance_4096x2160_60fps_10bit_420_60f Netflix_ToddlerFountain_4096x2160_60fps_10bit_420_60f Netflix_WindAndNature_4096x2160_60fps_10bit_420_60f street_hdr_amazon_2160p 1920x1080, 4: 2: 0, 60 cuadros: aspen_1080p_60f crowd_run_1080p50_60f ducks_take_off_1080p50_60f guitar_hdr_amazon_1080p life_1080p30_60f Netflix_Aerial_1920x1080_60fps_8bit_420_60f Netflix_Boat_1920x1080_60fps_8bit_420_60f Netflix_Crosswalk_1920x1080_60fps_8bit_420_60f Netflix_FoodMarket_1920x1080_60fps_8bit_420_60f Netflix_PierSeaside_1920x1080_60fps_8bit_420_60f Netflix_SquareAndTimelapse_1920x1080_60fps_8bit_420_60f Netflix_TunnelFlag_1920x1080_60fps_8bit_420_60f old_town_cross_1080p50_60f pan_hdr_amazon_1080p park_joy_1080p50_60f zona_peatonal_1080p25_60f rush_field_cuts_1080p_60f rush_hour_1080p25_60f seaplane_hdr_amazon_1080p station2_1080p25_60f touchdown_pass_1080p_60f 1280x720, 4: 2: 0, 120 cuadros: boat_hdr_amazon_720p dark720p_120f FourPeople_1280x720_60_120f gipsrestat720p_120f Johnny_1280x720_60_120f KristenAndSara_1280x720_60_120f Netflix_DinnerScene_1280x720_60fps_8bit_420_120f Netflix_DrivingPOV_1280x720_60fps_8bit_420_120f Netflix_FoodMarket2_1280x720_60fps_8bit_420_120f Netflix_RollerCoaster_1280x720_60fps_8bit_420_120f Netflix_Tango_1280x720_60fps_8bit_420_120f rain_hdr_amazon_720p vidyo1_720p_60fps_120f vidyo3_720p_60fps_120f vidyo4_720p_60fps_120f 640x360, 4: 2: 0, 120 cuadros: blue_sky_360p_120f controller_burn_640x360_120f escritorio2360p_120f kirland360p_120f mmstationary360p_120f niklas360p_120f rain2_hdr_amazon_360p red_kayak_360p_120f riverbed_360p25_120f escudos2_640x360_120f snow_mnt_640x360_120f speed_bag_640x360_120f stockholm_640x360_120f tacomanarrows360p_120f thaloundeskmtg360p_120f water_hdr_amazon_360p 426x240, 4: 2: 0, 120 cuadros: bqfree_240p_120f bqhighway_240p_120f bqzoom_240p_120f telesilla_240p_120f dirtbike_240p_120f mozzoom_240p_120f 1920x1080, 4: 4: 4 o 4: 2: 0, 60 cuadros: CSGO_60f. y4m DOTA2_60f_420. y4m MINECRAFT_60f_420. y4m STARCRAFT_60f_420. y4m EuroTruckSimulator2_60f. y4m Hearthstone_60f. y4m wikipedia_420. y4m pvq_slideshow. y4m Este conjunto de pruebas es un subconjunto estricto de objetivo-2-lento. Está diseñado para un tiempo de ejecución más rápido. Este conjunto de prueba requiere compilación con soporte de alta profundidad de bits. Netflix_DrivingPOV_1280x720_60fps_8bit_420_60f Netflix_RollerCoaster_1280x720_60fps_8bit_420_60f 1290x1080, 4: 2: 0, 60 cuadros: Este conjunto de prueba es una versión anterior de Objective-2-slow. 4096x2160, 10 bits, 4: 2: 0, 60 cuadros: Antena (marco de inicio 600) BarScene (marco de inicio 120) Barco (marco de inicio 0) Práctica de boxeo (marco de inicio 0) Paso de peatones (marco inicial 0) Bailarines (cuadro inicial 120) Comida de mercado Narrador Muelle Danza ritual SquareAndTimelapse Fuente para niños pequeños (marco de inicio 120) TúnelBandera WindAndNature (marco inicial 120) 1920x1080, 8 bits, 4: 4: 4, 60 cuadros: CSGO DOTA 2 Euro simulador de camión 2 Piedra de la chimenea MINECRAFT BARCO DE ESTRELLAS wikipedia pvq_slideshow 1920x1080, 8 bits, 4: 2: 0, 60 cuadros: ducks_take_off vida álamo temblón muchedumbre old_town_cross park_joy zona peatonal rush_field_cuts hora pico estación2 touchdown_pass 1280x720, 8 bits, 4: 2: 0, 60 cuadros: Netflix_FoodMarket2 Netflix_Tango DrivingPOV (marco de inicio 120) DinnerScene (marco inicial 120) Montaña rusa (marco inicial 600) Cuatro personas Johnny KristenAndSara vidyo1 vidyo3 vidyo4 dark720p gipsrecmotion720p gipsrestat720p quemadura controlada Estocolmo bolsa de velocidad snow_mnt escudos 640x360, 8 bits, 4: 2: 0, 60 cuadros: red_kayak cielo azul cauce thaloundeskmtgvga Kirlandvga tacomanarrowsvga tacomascmvvga escritorio2360p mmmovingvga mmstationaryvga niklasvga Esta es una versión antigua de aim-2-fast. Se definen cuatro modos de operación. La alta latencia está pensada para transmisión bajo demanda, transmisión en vivo de uno a muchos y video almacenado. La baja latencia está pensada para videoconferencias y acceso remoto. Ambos modos vienen en CQP y variantes sin restricciones. Al probar conjuntos de imágenes fijas, como el subconjunto1, se debe utilizar el modo CQP de alta latencia. Los codificadores deben configurarse con su mejor configuración cuando se comparan entre sí: av1: –codec = av1 –ivf –frame-parallel = 0 –tile-columnas = 0 –cpu-used = 0 –threads = 1 High Latency CQP se utiliza para evaluar cambios incrementales en un códec. Este método es muy adecuado para comparar códecs con herramientas de codificación similares. Permite funciones de códec con retraso de trama intrínseco. daala: -v = x -b 2 vp9: –end-use = q –cq-level = x –lag-in-frames = 25 –auto-alt-ref = 2 av1: –end-use = q –cq-level = x –auto-alt-ref = 2 El CQP de baja latencia se utiliza para evaluar cambios incrementales en un códec. Requiere que el códec esté configurado para cero retraso de trama intrínseca. daala: -v = x av1: –end-use = q –cq-level = x -lag-in-frames = 0 El codificador debe ejecutarse en el modo de mejor calidad disponible, utilizando el modo que proporcionará la mejor calidad por bitrate (VBR o modo de calidad constante). Se permiten búsquedas anticipadas y / o de dos pasos, si se admiten. Se proporciona un parámetro para ajustar la tasa de bits, pero las unidades son arbitrarias. Siguen configuraciones de ejemplo: x264: –crf = x x265: –crf = x av1: –end-use = q –cq-level = x -lag-in-frames = 25 -auto-alt-ref = 2 El codificador debe ejecutarse con el modo de mejor calidad disponible, utilizando el modo que proporcionará la mejor calidad por tasa de bits (VBR o modo de calidad constante), pero no se permite ningún retraso de trama, almacenamiento en búfer ni anticipación. Siguen configuraciones de ejemplo: x264: –crf-x –tune zerolatency x265: –crf = x –tune zerolatency Las comparaciones objetivas frecuentes son extremadamente beneficiosas al desarrollar un nuevo códec. Existen varias herramientas para automatizar el proceso de comparaciones objetivas. La herramienta Comparar códecs permite generar curvas de velocidad BD para una amplia variedad de códecs [COMPARECODECS]. El repositorio de origen de Daala contiene un conjunto de scripts que se pueden usar para automatizar las diversas métricas utilizadas. Además, estos scripts se pueden ejecutar automáticamente utilizando computadoras distribuidas para obtener resultados rápidos, con rd_tool [RD_TOOL]. Esta herramienta se puede ejecutar a través de una interfaz web llamada AreWeCompressedYet [AWCY], o localmente. Debido a restricciones computacionales, se especifican varios niveles de prueba. Las pruebas de regresión se ejecutan en un pequeño número de secuencias cortas: regression-test-1. Las pruebas de regresión deben incluir varias condiciones de prueba diferentes. El propósito de las pruebas de regresión es garantizar que las correcciones de errores (y parches similares) no afecten negativamente el rendimiento. El ancla en las pruebas de regresión es la revisión previa del códec en el control de origen. Las pruebas de regresión se ejecutan en modos CQP de alta y baja latencia. Los cambios que se espera que afecten la calidad de la codificación o el flujo de bits deben ejecutar una prueba de rendimiento objetiva. Las pruebas de rendimiento deben ejecutarse en un mayor número de secuencias. Se deben informar los siguientes datos: Información de identificación para el codificador utilizado, como el hash git commit. Opciones de línea de comando para el codificador, configurar el script y cualquier otra cosa necesaria para replicar el experimento. El nombre de la ejecución del conjunto de prueba (objetivo-1-rápido) Para los modos CQP de latencia alta y baja, y para cada métrica objetivo: La puntuación de BD-Rate, en porcentaje, para cada clip. El promedio de todos los puntajes de BD-Rate, igualmente ponderados, para cada categoría de resolución en el conjunto de prueba. El promedio de todos los puntajes de BD-Rate para todos los videos en todas las categorías. Normalmente, el codificador siempre debe ejecutarse en la configuración de velocidad más lenta y de mayor calidad (cpu-used = 0 en el caso de AV1 y VP9). Sin embargo, en el caso del tiempo de cálculo, tanto el codificador de referencia como el modificado se pueden construir con algunas opciones deshabilitadas. Para AV1, –disable-ext_partition y –disable-ext_partition_types se pueden pasar al script de configuración para acelerar sustancialmente la codificación, pero el uso de estas opciones se debe informar en los resultados de la prueba. Las pruebas periódicas se ejecutan en una amplia gama de velocidades de bits para medir el progreso en el tiempo, así como detectar posibles regresiones perdidas por otras pruebas. [AWCY], "¿Ya estamos comprimidos?", 2016. [BT500] UIT-R, "Recomendación UIT-R BT. 500-13", 2012. [CIEDE2000] Yang, Y., Ming, J. y N. Yu, "Evaluación de la calidad de la imagen en color basada en CIEDE2000", 2012. [COMPARECODECS] Alvestrand, H., "Compare Codecs", 2015. [DAALA-GIT], "Repositorio Daala Git", 2015. [] Filippov, A. y A. Norkin, "

Publicado: domingo 15 de marzo de 2020.