Buscador

Mostrando entradas con la etiqueta Subtítulos. Mostrar todas las entradas
Mostrando entradas con la etiqueta Subtítulos. Mostrar todas las entradas

miércoles, 27 de mayo de 2020

La guía definitiva sobre subtitulado

Muy interesante el documento The Complete Guide to Closed Captioning.

miércoles, 6 de mayo de 2020

La guía definitiva de subtitulado

Muy completo el artículo The Complete Guide to Captioned Videos.

lunes, 30 de marzo de 2020

Subtítulos para sordos

Pero ¿qué distingue al subtitulado para sordos de los subtítulos con los que vemos, por ejemplo, las películas en VOS? La principal diferencia radica en que los SPS deben suplir toda aquella información que las personas oyentes percibirían por el canal auditivo y que las personas con discapacidad auditiva por tanto se perderían, como el tono de voz, el idioma en que habla cada personaje o todo aquello que se escucha además de los diálogos (música, risas, voces en off, etc.). Además, no siempre queda claro quién está hablando cuando hay muchos personajes en pantalla. 
Así pues, ¿cómo son los SPS, que pueden incluir tanta información? 
Igual que los subtítulos para oyentes, los SPS aparecen, como norma general, en la parte inferior de la pantalla y no deberían ocupar más de dos líneas. Sin embargo, toda la información sobre el sonido ambiente se sitúa arriba a la derecha (al mismo tiempo que ocurre, claro). Para saber cuándo habla qué personaje, lo que diga cada uno de los protagonistas será de un color determinado. 
¿Y cómo sabe una persona con discapacidad auditiva si los personajes están diciendo algo en voz baja o chillando, si se burlan de un personaje imitándolo o si están siendo irónicos? Esta información, que se llama didascalia, aparece generalmente en mayúsculas y entre paréntesis antes de cada intervención. La alternativa que ofrece la norma UNE es el uso de emoticonos (:-O para cuando gritan, :-; si hablan irónicamente), aunque no se suele utilizar tan a menudo (por hablar, en «La tormenta perfecta», en Canal 9, ha aparecido dos veces, aunque no me ha dado tiempo a fotografiarlo).
Las didascalias siempre son sustantivos o adjetivos, nunca onomatopeyas o gerundios. Por ejemplo, si llaman a la puerta, se subtitulará (PUERTA) y no (TOC, TOC) o (LLAMAN A LA PUERTA). Aparecería arriba a la derecha y de color azul o rojo sobre fondo blanco porque es información auditiva. 
Y si alguien grita «¡Estás loco!» se subtitulará: 
(GRITA) ¡Estás loco!
y no (GRITANDO) ¡Estás loco! o ¡¡¡¡Estás loco!!!!
Y muchas más cosas muy interesantes, así que aconsejo leer todo el artículo.

lunes, 4 de noviembre de 2019

Accesibilidad audiovisual: subtítulos (LS)

Se presenta el concepto de los subtítulos, sus principales características, beneficios y recomendaciones para que sean accesibles.


viernes, 2 de agosto de 2019

Norma UNE 153010 "Subtitulado para personas sordas y personas con discapacidad auditiva"

La Norma UNE 153010 "Subtitulado para personas sordas y personas con discapacidad auditiva", de mayo 2012, explica cómo se deben crear los subtítulos para este grupo de personas. Define cosas como:
  • Los subtítulos deben ocupar como máximo dos o excepcionalmente tres líneas de texto.
  • El límite máximo de caracteres por línea debería ser de 37.
  • El tamaño máximo de los caracteres debe ser aquél que permita presentar en pantalla un subtítulo con 37 caracteres.
  • La relación de contraste entre un carácter y su contorno o caja debe tener un valor mínimo de 4.5.
  • Las técnicas para identificación de personajes deben elegirse según el siguiente orden de prioridad: uso de color, uso de etiquetas, uso de guiones.

Y así un montón de cosas más que se deben tener en cuenta.

viernes, 21 de junio de 2019

Guía de creación de subtítulos de la BBC

Subtitles are primarily intended to serve viewers with loss of hearing, but they are used by a wide range of people: around 10% of broadcast viewers use subtitles regularly, increasing to 35% for some online content. The majority of these viewers are not hard of hearing. 
This document describes 'closed' subtitles only, also known as 'closed captions'. Typically delivered as a separate file, closed subtitles can be switched off by the user and are not 'burnt in' to the image. 
The Subtitle Guidelines describe best practice for authoring subtitles and provide instructions for making subtitle files for the BBC. This document brings together documents previously published by Ofcom and the BBC and is intended to serve as the basis for all subtitle work across the BBC: prepared and live, online and broadcast, internal and supplied.

viernes, 5 de abril de 2019

Los subtítulos no solo ayudan a las personas con discapacidad

Muy interesante todo lo que se explica en Why Gen Z Loves Closed Captioning:
Closed captioning is a relatively recent development in the history of broadcasting, and it was designed with the hearing impaired in mind. According to a useful history on the National Captioning Institute’s (NCI) website, the technology dates back to the early 1970s, when Julia Child’s The French Chef “made history as the first television program accessible to deaf and hard-of-hearing viewers.” Real-time captioning arrived later, with stenographers typing at a blazing 250 words-per-minute to keep up with live news and sporting events.
If it wasn’t for the Twenty-First Century Communications and Video Accessibility Act of 2010 and additional rules adopted by the FCC in 2012, it’s unlikely my daughter’s IP-based Netflix streaming content would even have closed captioning options today.
While the NCI doesn’t explicitly acknowledge the growing use of closed captioning by those without hearing impairments, it does note that “closed captioning has grown from an experimental service intended only for people who are deaf to a truly global communications service that touches the lives of millions of people every day in vital ways.”
It’s certainly not just a phenomenon for young people. There are many people my age who admit to using them because they have some middle-aged hearing loss or simply need help understanding what the characters on Luther or Peaky Blinders are saying. They use captions to focus more intently on the content.
The need to read captions for what you can hear might even have a biological base. According to Dr. Sudeepta Varma, a psychiatrist at New York University’s Langone Medical Center, some people may have trouble processing the audio from television.

lunes, 22 de mayo de 2017

Subtítulos en Estados Unidos

Closed Captioning of Video Programming on Television y Closed Captioning of Video Programming Delivered Using Internet Protocol (IP) son dos normativas sobre el uso de subtítulos que se aplica en Estados Unidos. 

En YouTube existe una lista desplegable para indicar la razón de que un vídeo no tenga subtítulos en base a la normativa anterior.


lunes, 9 de enero de 2017

Los vídeos con subtítulos obligatorios en los aviones, en Estados Unidos, una vez más

Según la noticia Historic agreement reached: closed captions will be mandatory for US airline in-flight entertainment, los vídeos que se emitan en los aviones de las aerolíneas de Estados Unidos tendrán que tener subtítulos para las personas sordas y con problemas auditivos:

  • All new in-flight entertainment systems, whether on newly delivered aircraft or newly-installed on existing aircraft, must be capable of supporting closed captions and audio descriptions as of the effective date of the final rule.
  • If an aircraft has inaccessible seatback in-flight entertainment systems, it must provide an alternative personal entertainment device (PED) with accessible comparable video content.
  • Airlines shall request from video content providers that 100% of covered in-flight entertainment content are closed-captioned and audio-described, and shall obtain such covered video content with closed captions and audio descriptions available from the content providers, including edited versions.
  • Airlines will need to provide users the ability to customize closed captions (font sizes, colors, etc.)


viernes, 23 de enero de 2015

Subtítulos con la etiqueta video de HTML5

La etiqueta video de HTML5 permite incluir varias pistas con subtítulos en diferentes idiomas. También se puede utilizar para proporcionar información adicional. ¿Cómo?

Microsoft tiene un sitio web con varios ejemplos: Timed text track examples. Por ejemplo, Scenario 1: Basic timed text track example muestra un vídeo con subtítulos en inglés, español y alemán. Al pulsar en el botón de subtítulos se puede seleccionar el idioma.


Internet Explorer 11 incorpora una opción para cambiar la presentación visual de los subtítulos. Esta opción permite cambiar el tipo de letra, el color o el tamaño de los subtítulos. Se encuentra en Herramientas, Opciones de Internet, Accesibilidad, Subtítulos:




Una vez seleccionado un formato, hay que recargar la página con un vídeo para que se apliquen los cambios:



Información de Microsoft sobre la etiqueta video y track.

Además, Microsoft también ofrece una herramienta online para crear los ficheros de subtítulos: HTML5 Video Caption Maker.

jueves, 6 de marzo de 2014

El futuro del subtitulado según Google y YouTube

Subtitular un vídeo requiere mucho, muchísimo esfuerzo. Y además, es muy aburrido, nada gratificante.

Mis primeros vídeos los subtitulaba a mano, creaba las marcas de tiempo con una herramienta online llamada CaptionTube.

Y entonces llegó el subtitulado automático de YouTube, y todo cambió.

Por ahora, el subtitulado automático es un poco malo, menos da una piedra, pero si la calidad del audio no es buena, el subtitulado es horrible. Sin embargo, algo que siempre me ha funcionado bien y es lo que uso desde hace tiempo es la sincronización automática. ¡Qué maravilla! Sólo tengo que subir el fichero de la transcripción y el resto lo hace YouTube.

Pero parece que en el futuro, será mejor...

En Future of accessibility and video captions according to Google and YouTube nos cuentan que están trabajando en algunas novedades, como por ejemplo situar los subtítulos cerca de la persona que está hablando o utilizar colores para identificar a cada persona.

viernes, 17 de enero de 2014

Consejos básicos sobre la transcripción de audios

El artículo La transcripción de audios, consejos básicos proporciona algunos consejos muy sencillos destinados a aquellas personas que quieran realizar sus primeras transcripciones del audio.

lunes, 23 de diciembre de 2013

dotsub

dotsub es una empresa de subtitulado que afirma que pueden realizar el subtitulado y traducción de un vídeo en una hora.

Pero si no quieres pagar, siempre puedes probar con Amara y hacerlo tú mismo, o utilizarlo su servicio de pago que dicen que es un 50% más barato que la competencia.

En cualquier caso, el que no tiene subtítulos en sus vídeos es porque no quiere, no porque no puede.

viernes, 22 de noviembre de 2013

Subtítulos en YouTube

La ayuda oficial de Google para la creación de subtítulos en YouTube: Subtítulos. Se explica:

  • Cómo añadir subtítulos.
  • Cómo editar subtítulos.
  • Cómo eliminar subtítulos.
  • Subtítulos automáticos.
  • Archivo de subtítulos.
  • Transcripciones.
  • Cómo solicitar traducciones de subtítulos.
  • Software y servicios de subtítulos.

lunes, 25 de febrero de 2013

Vídeos subtitulados, accesibilidad y SEO

El artículo Video Captioning: Win/Win for accessibility and SEO (Part 1 of 2) y su segunda parte nos recuerda la importancia de subtitular los vídeos.

El artículo dice que subtitular los vídeos es una estrategia win-win (todos ganan, o todo son ventajas):
  • Los subtítulos y las transcripciones ayudan al posicionamiento, ya que cada vez hay más contenido en formato vídeo y los buscadores tienen en cuenta los subtítulos y las transcripciones para el posicionamiento.
  • Los subtítulos mejoran la accesibilidad de los contenidos, no sólo de cara a las personas con discapacidad, sino de cara a todos los usuarios (usuarios que no pueden escuchar el audio porque hace mucho ruido, porque el audio no está en su lengua nativa, etc.)

domingo, 10 de febrero de 2013

Herramienta para extraer los subtítulos

La herramienta 2srt.com permite extraer los subtítulos de cualquier vídeo publicado en YouTube.

El proceso es bien sencillo:

  1. Se introduce la URL del vídeo.
  2. Se selecciona el idioma de los subtítulos (por si el vídeo tiene varias pistas de subtítulos).
  3. Se selecciona si se quiere el subtítulo en el idioma original, o si se quiere la traducción a otro idioma que genera YouTube.
  4. Se pulsa "Descargar" y listo.
De esta forma tan fácil se puede obtener la transcripción de un vídeo... siempre que tenga subtítulos, claro.





jueves, 13 de diciembre de 2012

Amara, subtítulos universales

Amara (antes llamado Universal Subtitles) es un sitio web que gestiona un servicio de subtítulos universales que permite añadir subtítulos a casi cualquier vídeo publicado en Internet. La idea es bien sencilla: hay sistemas que no ofrecen la posibilidad de incluir subtítulos en un vídeo, y hay otros que sí que lo permiten, como YouTube, pero sólo lo puede hacer el propietario del vídeo. Amara permite añadir los subtítulos de forma "superpuesta" a través de su propio reproductor de vídeos. Es decir, en realidad los subtítulos son independientes del vídeo original.

Por ejemplo, aquí tenemos el vídeo Why Learn Web Accessibility?, alojado en YouTube, pero sin subtítulos. A través de este sistema, le han añadido los subtítulos. Para terminar, un vídeo que explica este sistema:

sábado, 16 de junio de 2012

Subtítulos automáticos en español en YouTube

A principios del año 2010 aparecieron los subtítulos automáticos en YouTube: mediante un sistema automático de reconocimiento del habla, YouTube es capaz de crear automáticamente los subtítulos. Este sistema no es muy fiable, depende de la calidad del audio y de la forma de hablar de las personas. Sin embargo, la segunda opción que tiene el sistema, sincronizar una transcripción que nosotros le proporcionamos con el audio, sí que es mucho más fiable. Además, una vez sincronizado, permite descargar los subtítulos con las marcas de tiempo para poderlos reutilizar en otros entornos.

Desgraciadamente, este sistema sólo estaba disponible para el inglés. Hasta ahora. YouTube acaba de anunciar en Subtítulos automáticos de YouTube ahora disponibles en español que esta opción ya está disponible para el español. En esa página se puede encontrar un vídeo de ejemplo para probar esta opción y en la página YouTube automatic captions now available in Spanish podemos encontrar otro ejemplo de vídeo, está vez de Casillas hablando de la Eurocopa.

Sí, el sistema falla mucho, pero es un gran avance (el que lo critique, que lo intente hacer mejor).

lunes, 26 de marzo de 2012

Nuevo sistema de subtitulado

El sistema tradicional de subtitulado que se emplea hoy en día apareció en la década de los setenta. Desde entonces, el sistema prácticamente no ha cambiado: en la parte inferior de la imagen aparecen una o dos líneas de texto que permiten a las personas sordas, o a todas las personas cuando el sonido está apagado o cuando se subtitula en otro idioma, seguir las conversaciones del vídeo.

Este sistema tiene un problema muy importante: a veces no se sabe quién está hablando (por ejemplo, porque hay muchas personas juntas hablando a la vez). Para reducir este problema, a cada persona se le puede asignar un color distinto que se emplea en el texto de los subtítulos, pero este sistema no es la solución perfecta (además, recordemos que basarse sólo en el color para transmitir información no es una buena práctica).

Según el artículo Researches revolutionize closed captioning, investigadores de la Hefei University of Technology en China han desarrollado un novedoso sistema de subtitulado de vídeos. Esta sistema consiste en mostrar el texto en "burbujas" (bocadillos) transparentes cerca de la persona que está hablando. Además, también sincronizan la visualización del texto con la velocidad a la que habla la persona, de una forma similar a como se hace en un karaoke.

En la siguiente imagen se puede ver una comparativa de los sistemas tradicionales (de la letra "a" a la "d"), llamados subtitulados estáticos, frente al nuevo sistema (letra "e") llamado subtitulado dinámico.


De 60 personas que probaron el nuevo sistema, 53 prefirieron el nuevo sistema frente al tradicional.

El sistema es totalmente automático y no necesita ninguna intervención manual, ya que a partir de la transcripción de los diálogos (con su correspondiente marca de tiempo), el sistema detecta quién está hablando mediante la detección del movimiento de los labios. Además, el sistema también detecta automáticamente cuál es el mejor sitio para situar las "burbujas de texto". Cuando la persona que habla está fuera de la imagen, el texto se muestra en la parte inferior como con los subtítulos tradicionales.

Por último, según la noticia, en el mundo existen más de 66 millones de personas con problemas de audición.

[Actualización 26/03/2012]
Se puede encontrar información detallada sobre el sistema en los siguientes artículos (de pago):

El sistema no parece que tenga un nombre. En la actualidad no se comercializa, sólo es un producto en fase de investigación y desarrollo, ya que por ahora tiene una tasa de error que impide que puede ser comercializado.