Buscador

jueves, 29 de marzo de 2012

El coche que conduce sólo de Google y los vídeos accesibles

Desde hace un par de años, Google está trabajando en el desarrollo de un coche que conduzca por el solo. ¿Ciencia ficción? No, ya es una realidad. En el artículo How Google's Self-Driving Car Works (octubre 2011) nos explican cómo es posible este milagro de la inteligencia artificial:
  • El sistema emplea un láser montado en el techo del coche para crear un mapa 3D del entorno cercano.
  • Estas medidas se combinan con mapas de alta resolución para crear modelos del mundo que se emplean para tomar las decisiones de conducción.
  • Además, también se emplean otros tipos de sensores: 4 rádares, montados por delante y por detrás; una cámara para detectar los semáforos; un GPS y una unidad de medición inercial para medir la posición; y un codificador en las ruedas para controlar su movimiento.
Pero todo el sistema tiene una pequeña trampa: para que el coche realice una ruta de forma autónoma, Google necesita enviar antes uno o varios coches conducidos de forma manual para que adquieran información detallada sobre la ruta.

El coche de Google ha sido capaz de conducir más de 300.000 km sin que se tenga constancia de ningún accidente provocado por él. Sí que tuvo un accidente, pero parece que fue causado por un humano: Google self-driving car crash caused by human.

Este tema de los coches autónomos se lo toman muy en serio en Estados Unidos. En febrero de este año apareció la noticia de que el estado de Nevada era el primero que aprobaba una legislación sobre los coches que conducen por ellos mismos: Nevada Approves Self-Driving Cars after Google Lobbying Push.

En realidad, el origen de todo esto está en el ejército de los Estados Unidos y en su agencia para el desarrollado de proyectos avanzados DARPA (Defense Advanced Research Projects Agency) . Desde el año 2004, DARPA organiza el Gran Challenge, un concurso/carrera que tiene como objetivo lograr el desarrollo de vehículos autónomos para el ejército.

Volviendo al coche que conduce solo de Google, acaban de publicar un vídeo en el que una "persona ciega conduce el coche". En realidad, han publicado dos vídeos, con idéntico contenido, pero uno de ellos con audio descripción destinado a las personas ciegas que no pueden ver el vídeo.

Vídeo sin audio descripción:


Vídeo con audio descripción:


En el vídeo con descripción podemos comprobar cómo se explica lo que podemos ver en la imagen, como que una persona sale de la puerta principal de su casa con un jersey marrón y unos pantalones color caqui para dirigirse a un coche con los logos de Google.

Lástima que no hayan incluido también subtítulos para las personas sordas, aunque quizás lo hayan hecho porque YouTube ofrece un servicio de audio transcripción automática desde hace tiempo que evita el tener que añadir los subtítulos de forma manual, aunque por ahora sólo está disponible en inglés y su exactitud no es muy buena.

Nueva encuesta del WebAIM sobre el uso de lectores de pantalla

Durante los últimos años, el WebAIM ha realizado varias encuestas online destinadas a analizar los hábitos de uso de los lectores de pantalla:
WebAIM ha realizado un llamamiento público para recibir comentarios y sugerencias para preparar su cuarto estudio. Quien quiera colaborar, lo puede hacer contactando con WebAIM.

miércoles, 28 de marzo de 2012

A11ybuzz

A11ybuzz es un sitio web muy interesante que "vigila" la Web para buscar noticias, artículos, recursos y tweets relacionados con la accesibilidad web (recordemos que A11y es una forma abreviada de referirse a accessibility).

En la página principal podemos encontrar:

  • Los temas más populares
  • Las entradas más populares
  • Las entradas más recientes
  • El feed de Twitter
Por ejemplo, en los temas más populares podemos encontrar HTML5 con algunas entradas interesantes, como por ejemplo:

lunes, 26 de marzo de 2012

Nuevo sistema de subtitulado

El sistema tradicional de subtitulado que se emplea hoy en día apareció en la década de los setenta. Desde entonces, el sistema prácticamente no ha cambiado: en la parte inferior de la imagen aparecen una o dos líneas de texto que permiten a las personas sordas, o a todas las personas cuando el sonido está apagado o cuando se subtitula en otro idioma, seguir las conversaciones del vídeo.

Este sistema tiene un problema muy importante: a veces no se sabe quién está hablando (por ejemplo, porque hay muchas personas juntas hablando a la vez). Para reducir este problema, a cada persona se le puede asignar un color distinto que se emplea en el texto de los subtítulos, pero este sistema no es la solución perfecta (además, recordemos que basarse sólo en el color para transmitir información no es una buena práctica).

Según el artículo Researches revolutionize closed captioning, investigadores de la Hefei University of Technology en China han desarrollado un novedoso sistema de subtitulado de vídeos. Esta sistema consiste en mostrar el texto en "burbujas" (bocadillos) transparentes cerca de la persona que está hablando. Además, también sincronizan la visualización del texto con la velocidad a la que habla la persona, de una forma similar a como se hace en un karaoke.

En la siguiente imagen se puede ver una comparativa de los sistemas tradicionales (de la letra "a" a la "d"), llamados subtitulados estáticos, frente al nuevo sistema (letra "e") llamado subtitulado dinámico.


De 60 personas que probaron el nuevo sistema, 53 prefirieron el nuevo sistema frente al tradicional.

El sistema es totalmente automático y no necesita ninguna intervención manual, ya que a partir de la transcripción de los diálogos (con su correspondiente marca de tiempo), el sistema detecta quién está hablando mediante la detección del movimiento de los labios. Además, el sistema también detecta automáticamente cuál es el mejor sitio para situar las "burbujas de texto". Cuando la persona que habla está fuera de la imagen, el texto se muestra en la parte inferior como con los subtítulos tradicionales.

Por último, según la noticia, en el mundo existen más de 66 millones de personas con problemas de audición.

[Actualización 26/03/2012]
Se puede encontrar información detallada sobre el sistema en los siguientes artículos (de pago):

El sistema no parece que tenga un nombre. En la actualidad no se comercializa, sólo es un producto en fase de investigación y desarrollo, ya que por ahora tiene una tasa de error que impide que puede ser comercializado.

martes, 20 de marzo de 2012

Indra Tecnologías Accesibles

Indra, la multinacional española de tecnologías de la información y la comunicación, mantiene el sitio web Indra Tecnologías Accesibles en el que difunde su participación en diferentes proyectos que tienen como objetivo desarrollar tecnologías accesibles para todos los usuarios.

Entre los proyectos que desarrolla, destacan:

  • HeadMouse, un ratón que se mueve con el movimiento de la cabeza y que sustituye al ratón convencional. Está pensado para personas con movilidad reducida o que no puedan utilizar un ratón convencional.
  • VirtualKeyboard, un teclado virtual en pantalla pensado para personas con movilidad reducida o con problemas en la utilización de teclados convencionales.
  • Ganas, un intérprete virtual que convierte un texto en lengua de signos español para personas con discapacidad auditiva.

También destacan los proyectos REM (Relative Eye Mouse Device) y DIUWA 2.0 (Diseño de Interfaces de Usuario Web 2.0 accesibles), pero la información proporcionada no es muy útil.

Desgraciadamente, este sitio web tiene algunos problemas de accesibilidad. Ya se sabe, en casa del herrero, cuchara de palo. Por ejemplo, en la página Innovación como herramienta de integración podemos encontrar la siguiente imagen:


Desgraciadamente, esta imagen en la que aparecen diferentes mensajes (Tecnología, Educación Accesible, Accesibilidad) y diferentes entidades con las que parece que colabora Indra (Universidad de Lleida, Universidad Politécnica de Madrid, Universidad de Castilla-La Mancha) sólo tiene como texto alternativo "La innovación nos une".

jueves, 15 de marzo de 2012

¿Qué es mejor, Flash o HTML5?

¿Qué es mejor, Flash o HTML5? La pregunta no debería tener respuesta, porque es como comparar naranjas y limones, pero hay mucha gente que se hace este tipo de preguntas.

Hace unos días recibí la siguiente consulta:
Últimamente he estado introduciéndome en el mundo de la accesibilidad, y, aunque ahora no me dedico a ello, es un tema que siempre tengo en cuenta.

Ahora mismo, trabajo creando cursos en Moodle, y me surge la duda de qué tecnología o herramientas usar para ello. Los últimos años se ha plagado los cursos de eLearning de contenidos hechos en Flash y subidos como paquetes SCORM. Pero dado que Flash está en extinción, y viendo todos los inconvenientes que tiene, entre ellos, los referentes a accesibilidad, me estaba preguntando si HTML5 sería la mejor elección para los contenidos de los cursos de eLearning.

Sé que tu especialidad es la accesibilidad, pero te agradecería enormemente si me dieras tu opinión acerca de esto. He leído los artículos de tu blog acerca de HTML5 y de Flash. No tengo dudas de abandonar completamente el Flash, la duda es si además de HTML5 hay alguna otra tecnología para crear contenidos accesibles, multiplataforma, etc. En definitiva, si hay más tecnologías que puedan ser tan accesibles (hablando ya en un sentido más general, tanto a nivel humano como del dispositivo que uses) como HTML5. También me preocupa desarrollar ya contenidos en HTML5 y que haya problemas para verlos dependiendo del navegador.
Y mi respuesta fue:
Flash no tenía características de accesibilidad desde el principio. Posteriormente se añadieron, pero por necesidad, porque lo pidió la gente. Incluso así, aunque se utilicen las características de accesibilidad de Flash, los objetos hechos en Flash siempre han tenido un problema: en algunos navegadores no se puede acceder a ellos directamente con el teclado (nosotros no nos damos cuenta de ello porque lo usamos con ratón). Una persona ciega o una persona con problemas de movilidad que utilice sólo el teclado, tendrá graves problemas de accesibilidad con los objetos hechos en Flash.

HTML siempre ha tenido en cuenta la accesibilidad. Puede ser mejor o peor, aún tiene muchas cosas por solucionar, pero se tiene el compromiso de ello. Por tanto, entre Flash y HTML5, sin duda HTML5 es mejor. Aquí puedes encontrar algo de información interesante sobre HTML5 y la accesibilidad: http://html5accessibility.com/

Un problema importante para que HTML5 triunfe es la falta de buenas herramientas de autor. Flash siempre ha tenido buenos (o malos) entornos de desarrollo, pero por ahora HTML5 carece de ello. Sin embargo, todo es cuestión de tiempo. Incluso Adobe está desarrollando su propia herramienta, Edge (http://labs.adobe.com/technologies/edge/) o Wallaby
(http://labs.adobe.com/technologies/wallaby/), su propio conversor de Flash a HTML5.
Yo no conozco otra tecnología que permita crear contenidos accesibles, multiplataforma, etc. HTML5 no es perfecto, pero es la única tecnología estándar que tenemos por el momento, y eso es un gran avance.

Sobre lo de crear ya contenidos en HTML5, el W3C anima a ello, no hay que esperar a que HTML5 sea una recomendación (lo cual se espera que ocurra en el año 2014). Pero hay que saber usar HTML5 con cuidado y ser consciente de lo que funciona en la mayoría de los últimos navegadores. En el caso de los contenidos educativos no veo ningún problema, porque es muy normal en los cursos online exigir unos requisitos mínimos de software a los alumnos, así que se puede exigir a los alumnos que utilicen unos navegadores concretos.

Hoy en día, las últimas versiones de los navegadores de verdad (Firefox, Opera, Chrome y Safari) implementan ya muchas de las nuevas características de HTML5. Para saber el nivel de compatibilidad con HTML5 te recomiendo la página The HTML5 test, en el apartado Other browsers hay una comparativa. A día de hoy, el navegador más compatible es Google Chrome 17:
  • Google Chrome 17.0: 374 puntos
  • Mozilla Firefox 10.0: 332 puntos
  • Opera 11.60: 329 puntos
  • Apple Safari 5.1: 302 puntos
  • Microsoft Internet Explorer 9: 141 puntos

miércoles, 14 de marzo de 2012

Traductor portátil de la lengua de signos

Según la noticia Technology that translates sign language into text aims to empower sign language user, en la Universidad de Aberdeen (Escocia) han desarrollado un traductor portátil de la lengua de signos llamado Portable Sign Language Translator (PSLT).

La noticia dice que este software es el primero de su tipo a nivel mundial: con este software y con un dispositivo que tenga una cámara de vídeo (por ejemplo, un teléfono móvil moderno, una tableta o una webcam conectada a un ordenador), un usuario que se comunique mediante la lengua de signos se puede comunicar con cualquier persona, ya que el sistema traduce sus signos a texto.

El sistema está en desarrollo, pero promete revolucionar totalmente la comunicación entre personas sordas y no sordas. Según la noticia, el número de personas en el Reino Unido cuya primera lengua es la Lengua Británica de Signos se estima entre 50.000 y 70.000 personas.

Esta noticia me recuerda el proyecto GANAS (Generador de Animaciones para el Lenguaje de Signos) desarrollado en la Universidad de Castilla-La Mancha y que tiene como objetivo justo lo contrario: desarrollar un avatar tridimensional que traduzca un texto a la lengua de signos.

martes, 13 de marzo de 2012

El Día Mundial del Glaucoma

Ayer lunes 12 de marzo se celebró el Día Mundial del Glaucoma. El glaucoma es una enfermedad crónica que puede afectar muy gravemente a la visión. Puede llegar a causar ceguera y es considerada la segunda causa de ceguera en el mundo occidental.

En el artículo Un día para la ceguera que no duele, nos dicen que unos 500.000 españoles padecen glaucoma y un 5% de los casos puede derivar en ceguera:
Esta patología, que afecta a unos 60 millones de personas en el mundo, se caracteriza por una degeneración del nervio óptico causada por un aumento de la presión dentro del ojo. Un millón de españoles la padece, aunque la mitad de ellos lo desconoce. Con un diagnóstico a tiempo, puede iniciarse un tratamiento dirigido a frenar su progresión. Sin este tratamiento temprano, el 5% de los casos de glaucoma puede derivar en ceguera.

En Internet podemos encontrar varios ejemplos y simuladores de glaucoma y otros problemas de visión:

En mi sitio web sobre accesibilidad web tengo la página Simuladores de personas con discapacidad visual en la que comento varias herramientas que permiten simular diferentes problemas de visión. De todas ellas recomiendo Web Accessibility Toolbar, que posee un apartado con diferentes simulaciones: retinopatía diabética, cataratas, degeneración macular, glaucoma, ceguera al color y contraste reducido.

lunes, 12 de marzo de 2012

El W3C dice que HTML5 transformará la Web

La semana pasada, del 6 al 10 del marzo, se celebró el CeBIT en Hannover (Alemania). El nombre CeBIT (Centrum der Büro-und Informationstechnik) significa Centro para la Tecnología de la Información y de la Oficina. El CeBIT está considerada la feria de exposición de ordenadores, tecnologías de la información, telecomunicaciones, software y servicios más importante del mundo.

En la noticia W3C CEO calls HTML5 as transformative as easly Web nos cuentan cómo fue la participación de Jeff Jaffe, directivo del W3C. Según este directivo, HTML5 será una tecnología disruptiva con tanto poder y efecto como los que ocurrió durante los primeros años de la Web:
We’re about to experience a generational change in Web technology, and just as the Web transformed every business, (HTML5) will lead to another transformation.
Jeff Jaffe también destacó que HTML5 ofrecerá nuevas posibilidades para mejorar la accesibilidad de los sitios web.

Jeff Jaffe recordó que HTML5 no será un estándar hasta el año 2014. También reconoció que algunas críticas sobre el rendimiento de HTML5 y sobre su nivel de madurez para sustituir otras tecnologías (por ejemplo, Flash) tienen un fundamento real. Sin embargo, explicó que es algo normal en cualquier tecnología cuando se introduce por primera vez. Preguntado por el dilema aplicación nativa o aplicación web, Jeff Jaffe contestó que no lo veía como una competición, pero se decantó por las aplicaciones web debido a la gran diversidad de dispositivos que existen y a la necesidad creciente, por cuestión de costes, de disponer de una plataforma estándar.

sábado, 10 de marzo de 2012

Uso de tabletas táctiles para ayudar a los estudiantes ciegos a aprender matemáticas

En la Wikipedia podemos encontrar la definición de tecnología háptica:
La tecnología háptica se refiere al conjunto de interfaces tecnológicos que interaccionan con el ser humano mediante el sentido del tacto. Se trata de una tecnología emergente desde los 90 que está evolucionando prometedoramente en algunos campos de aplicación.
Todo aquel que haya jugado alguna vez con una consola moderna, como una PlayStation 2 o una XBox 360, ya ha probado una interfaz háptica: la vibración del mando. En realidad, el modo vibrador de un teléfono móvil también es una interfaz háptica.

Puede parecer sorprendente, pero los teléfonos con pantalla táctil han supuesto una gran revolución para las personas con problemas de visión. El teléfono iPhone destaca entre los demás por su lector de pantallas, VoiceOver, y por su nuevo asistente, Siri.

En el artículo App turns tablet into math aid for visually impaired students nos cuentan que en la Vanderbilt University (Estados Unidos) han desarrollado una aplicación para tabletas basadas en el sistema operativo Android que permite sentir con los dedos figuras geométricas. El objetivo es ayudar a los estudiantes con problemas de visión para que puedan entender mejor los conceptos matemáticos, como la geometría, que tienen un alto componente visual.

En la noticia se comenta que el coste de los dispositivos que se emplea en el proyecto ha disminuido enormemente, lo cual es una gran ventaja para que se difunda su uso y acabe siendo una realidad para miles de usuarios: cuando comenzó el proyecto hace 18 meses se empleaba un modelo industrial que costaba $2,500, mientras que ahora se emplean tabletas domésticas que cuestan $300.

Y a continuación, un vídeo (en inglés) en el que podemos ver una demostración de su uso:



Más información:

viernes, 9 de marzo de 2012

Textos claros y fáciles de leer: Visual-Syntactic Text Formatting

La legibilidad es una característica o propiedad que define la facilidad de lectura y comprensión de un texto. Que un texto sea legible ayuda a que sea más fácil de leer para todos y en especial para las personas con problemas de lectura y/o discapacidades cognitivas. Por tanto, la legibilidad de los textos es un aspecto esencial en la accesibilidad web. Desgraciadamente, muchas veces se olvida.

Recordemos que las Pautas de Accesibilidad al Contenido en la Web 1.0 dedican la pauta 14 "Asegúrese de que los documentos sean claros y simples" a este tema:
  • 14.1 Utilice el lenguaje apropiado más claro y simple para el contenido de un sitio. [Prioridad 1]
  • 14.2 Complemente el texto con presentaciones gráficas o auditivas cuando ello facilite la comprensión de la página. [Prioridad 3]
  • 14.3 Cree un estilo de presentación que sea coherente para todas las páginas. [Prioridad 3]

Hace unos días comentaba con unos compañeros de departamento lo mal que escriben nuestros alumnos, incluso cuando intentan escribir bien. Y no me estoy refiriendo a cuando nos escriben como si fuese un SMS. En concreto, estuvimos hablando sobre el uso de los signos de puntuación y las frases "kilométricas" que a veces escriben algunos alumnos.

Acabo de encontrar un par de artículos sobre Visual-Syntactic Text Formatting (VSTF), que se puede traducir como "Formateo del texto visual y sintáctico". Es una propuesta muy interesante, aunque quizás con poco futuro por lo innovadora que es, que permite escribir textos más fáciles de leer.

El sistema consiste en emplear la sintaxis de los textos para transformar su presentación visual en un "modelo en cascada" o jerárquico. Más o menos, es lo mismo que hacemos cuando programamos o escribimos código HTML y utilizamos el tabulador (la sangría) para indicar la estructura jerárquica del código. Veamos un ejemplo que aparece en los artículos que he consultado.

La siguiente imagen contiene el texto de la primera frase que aparece en la Declaración de Independencia de los Estados Unidos:


La propuesta VSTF transformaría la presentación visual del texto en esto otro:


Y aquí otro ejemplo, primero el texto original:


Y después el texto transformado según el sistema VSTF:


Cómo he dicho antes, muy parecido a la forma de escribir el código cuando se programa o cuando se escribe un documento HTML. Según los datos presentados por sus autores, la comprensión de los textos aumenta al emplear esta presentación de los textos.

No creo que este sistema sea útil para todo el mundo. Pero sí que sería interesante implantarlo en algunas tecnologías de apoyo destinadas a personas con problemas de lectura y/o discapacidades cognitivas.

Por último, por si alguien los quiere consultar, estos son los dos artículos que he encontrado sobre VSTF:
Finalmente, en la categoría Legibilidad de este blog se pueden encontrar más entradas sobre este tema, como por ejemplo:

miércoles, 7 de marzo de 2012

Mejoras en el sistema para controlar el ordenador con la lengua

El artículo Tongue Drive System Goes Inside the Mouth to Improve Performance and User Comfort nos cuenta que en el Georgia Institute of Technology han desarrollado un sistema para controlar el ordenador u otros dispositivos, como una silla de ruedas, con el movimiento de la lengua. Este tipo de sistema está destinado para personas que han sufrido un gran daño en la médula espinal y que sufren de tetraplejia.

El nuevo sistema que se ha presentado mejora el que previamente existía que consistía en un casco que detectaba el movimiento de un imán que estaba implantado en la lengua del usuario a modo de piercing. El nuevo sistema emplea una especie de protector dental con una serie de detectores, tal como podemos ver en la siguiente imagen.


Este nuevo sistema es más cómodo que el existente, ya que en el sistema antiguo basado en el casco, éste se podía mover y había que realizar un proceso de calibración cada vez que se usaba. Además, al estar los sensores más cerca del imán, se mejora la relación señal-ruido y, por tanto la precisión.

Este sistema presenta una gran ventaja frente a otros sistemas como los de pulsadores o los de inspiración-espiración, ya que permite una mayor variedad de combinaciones.

A continuación un vídeo donde podemos ver el uso del sistema antiguo. Desgraciadamente, según el vídeo, aún se está lejos de poder comercializar este sistema.



Más información:

martes, 6 de marzo de 2012

Encuesta: ¿Está cambiando la prioridad en realizar una web accesible, en España, por la crisis?

Alan Chuter, organizador del encuentro Madrid Accesibilidad TICs ha creado una encuesta online para apoyar  una de las discusiones que tendrá lugar en el próximo encuentro: ¿Está cambiando la prioridad en realizar una web accesible, en España, por la crisis?

La explicación a la pregunta que plantea es:
Por tu propia experiencia, si trabajas en una empresa o en la administración pública o una ONG, ¿ha afectado la crisis los proyectos en que trabajas? ¿Ha mejorado o ha empeorado el nivel de accesibilidad? El resultado de la encuesta nos servirá para el debate la semana que viene.
Y las posibles respuestas son:
  • Se ha reducido el esfuerzo en cuanto a la accesibilidad
  • Ha aumentado
  • No noto ningún cambio

Nuevo encuentro Madrid Accesibilidad TICs en marzo

El miércoles 14 de marzo habrá un nuevo encuentro de Madrid Accesibilidad TICs. Por ahora, los temas a tratar están por determinar y los organizadores aceptan que cualquiera pueda realizar una charla u organice una tertulia.

Para los que no pudieron asistir a los dos primeros encuentros, Rosana Naveira ha publicado un resumen de cada uno de ellos:
El encuentro tendrá lugar en el lugar de costumbre, la Sala Ciball en la calle Corredera Baja de San Pablo, 41, en Madrid.

lunes, 5 de marzo de 2012

Juegos controlados con la vista para niños con discapacidad

La noticia Eye-controlled computer games for disabled children nos cuenta que el Centre for Computational Intelligence de la De Montfort University, una universidad situada en Leicester (Reino Unido), están empleando sistemas de eye tracking (seguimiento del ojo) para que niños con movilidad limitada puedan jugar con videojuegos. Además, el sistema también les permite moverse por entornos virtuales y, por qué no, por entornos reales.

Según dice la noticia, el sistema que están desarrollando es de bajo coste. En el siguiente vídeo se puede ver una demostración de uso de este sistema. En el vídeo aparece el proceso de calibración (acelerado) que requieren los sistemas de eye tracking.



Más información:

jueves, 1 de marzo de 2012

HTML5: situación actual y futuro

HTML5 es "el milagro, la piedra filosofal, el Dorado del desarrollo web". Los que llevamos muchos años en el desarrollo web la estábamos esperando desde hacía tiempo: una tecnología estándar, compatible con todos los dispositivos y con las suficientes características que nos permitan hacer todo lo que queramos sin tener que depender de terceras tecnologías. Una tecnología que nos permita construir desde un "Smart a un Hummer", desde un "Lada a un Lamborghini". Desgraciadamente, por ahora es un espejismo.

El artículo HTML5 still taking shape nos cuenta algunas cosas interesantes sobre la situación actual de HTML5 y sobre las expectativas que se han creado a su alrededor. Además, plantea el dilema entre desarrollar una aplicación nativa para cada dispositivo o el desarrollo de una aplicación web compatible con todos los dispositivos. A continuación, la traducción de los párrafos más interesantes:
Hoy en día, hay pocas dudas de que la industria ha adoptado HTML5 como la mejor solución para el desarrollo y distribución de aplicaciones ricas (rich applications) compatibles con múltiples navegadores y dispositivos. Somos testigos de la desaparición de Flex, del reposicionamiento de Flash, y del anuncio de Microsoft de que Silverlight 5 será la última versión para navegador.

[...]

"Esto no tiene precedentes en nuestra industria", dijo [Todd Anglin]. "Cada uno ha querido construir y poseer la plataforma, pero con la explosión de dispositivos en el mercado, ahora quieren ser dueños de las herramientas y los servicios".

¿Puede que todo esto se remonte a la decisión de Apple de no permitir plugi-ns y entornos de ejecución en su iPhone? En parte. Pero también se debe al creciente número de nuevos dispositivos que salen al mercado, cada uno con diferentes sistemas operativos. "Los plug-ins simplemente no se pueden mantener al día con el rápido aumento de todos estos dispositivos", dijo Anglin. "Incluso si se les permitiese, no podrían mantener el ritmo".

Jacobs citó un estudio que declaraba que dos mil millones de teléfonos móviles con navegadores estarán en circulación en dos años a partir de ahora, y todos esos navegadores afirman soportar los desarrollos basados en HTML5.

Pero es demasiado pronto para declarar a HTML5 el ganador en el desarrollo de aplicaciones web, afirman los expertos. De acuerdo con el sitio web builtwith.com, sólo el 8% de los principales 100.000 sitios web tienen algo de HTML5 detrás de ellos, y sólo el 14% de los principales 10.000 sitios tienen algo de HTML5, aunque sólo sea el empleo de Canvas. Además, sólo el 46% de los usuarios de Internet actuales tienen un navegador compatible con HTML5.

El problema, según Anthony Franco, presidente y cofundador de la empresa de desarrollo de software EffectiveUI, es que HTML5 aún no es un estándar. "Sólo porque alguien dice que su navegador es compatible con HTML5 no quiere decir que sea un estándar. Todos los navegadores soportan la recomendación del W3C [por HTML5] de diferentes formas", dijo.

[...]

Por lo tanto, ¿ha llegado HTML5 al nivel de Flash y Silverlight? La mayoría de los expertos dicen que todavía no, pero se está camino de ello.

[...]

También dijo el Grupo de Trabajo de Aplicaciones Web del W3C está trabajando en una nueva iniciativa para hacer frente "al acceso universal a las aplicaciones web mediante una amplia gama de dispositivos y por una gran diversidad de usuarios".

[...]

Uno de estos debates gira en torno a las necesidades del usuario y la experiencia del usuario. Montones de investigaciones muestran que los usuarios abandonan un sitio web si es lento en responder o no puede ofrecer lo que el usuario desea. Así que, una decisión a la que los desarrolladores web se deben enfrentar es la de escribir una aplicación que es nativa para un dispositivo, o utilizar los estándares web para llegar a más dispositivos.
[...]

¿Qué aproximación se debe adoptar?¿Flash? ¿Silverlight? ¿HTML5/JavaScript/CSS3/SVG?

Anthony Franco, presidente y cofundador de la empresa de desarrollo de software EffectiveUI, dijo que se debe contestar una serie de preguntas antes de elegir la plataforma de desarrollo:
  1. ¿Cuál es la duración esperada de la aplicación? ¿Con qué frecuencia se volverá a rescribir?
  2. ¿Cuál es el conjunto de habilidades de los desarrolladores? Las estadísticas muestran que hay cerca de 5 millones de desarrolladores web en el mundo, mientras que hay menos de 200.000 desarrolladores de Objective-C (para escribir aplicaciones nativas de iOS).
  3. ¿Dónde tiene que residir la aplicación?
  4. ¿Cómo de "rica" necesita ser la aplicación?
  5. ¿Cómo de integrada en los sistemas software actuales necesita estar?
  6. ¿Cuánto está dispuesto a poner en peligro las características de la aplicación en función de la plataforma elegida?
Más información: