September 14th, 2019

Сурдопереводчики, ваше дело проиг...

Глухой программист из Новосибирска (А. Приходько) научил компьютер понимать язык жестов.
Видеокамера, нейронка, дисплей. Проще показать фото...


Возможно, это не первая подобная работа /слова давно переводят в жестоый язык - есть даже приложение "Сурдофон"/. Но, исходя из опыта тех лекций, что я сам читал слабослышащим, и что читают мои коллеги:
- живой сурдопереводчик исполняет роль дополнительного контролера над аудиторией, фактически, воспитателя;
- электронный обладает громадным преимуществом в скорости сообщения информации. Жестами показать по буквам новое слово бывает долго. А тут, совершенно очевидно, возникнет такой же феномен, как у слабовидящих, когда они слушают тексты на ускоренной перемотке и хорошо их понимают;
- бОльшей скоростью может обладать текстовое сообщение, которое непосредственно генерируется из человеческой речи;
- сейчас хорошим подспорьем был бы большой экран, на котором речь преподавателя одновременно передаётся такими вот жестами и бегущей строкой.

Если идем на шаг дальше, то ниша, которую сейчас занимают живые сурдопереводчики, начинает со всех сторон сокращаться другими средствами коммуникации: съем данных с мозга (люди управляют машинами, имея на голове или теле систему датчиков); передача данных на тело (покалывание кожи); доступная демонстрация губ и подбородка во время диалога (дисплей на любом смартфоне); различными графическими отображениями реальных звуков (глухому можно показывать пульс звуковой дорожки); вообще системой дополненной реальности, когда очки могут позволить не отвлекаться на мобильный...

Если предельно обобщать: любая информация, имеющаяся в коммуникационной системе, должна быть представлена человеку через сохранившийся у него канал ощущений. Понятно, что видеофайл предельно трудно изложить через обоняние, но обратное действие - свести данные других чувств к зрению - компьютеры должны делать очень быстро.