
四肢麻痺のAppleユーザーであり、障害者支援活動家でもあるコリン・ヒューズ氏は昨年、車椅子を使い、手の動きが制限されている立場からApple製品を使用する体験談を共有しました。そして今回、iOS 15とwatchOS 8でAppleが行ったアクセシビリティの改善点について解説します。
彼は、Apple が達成した進歩と、いくつかの非常に驚くべき失敗を含むアクセシビリティ サポートの弱点を強調しています...
ヒューズ氏はiPhone 13 Pro、Apple Watch Series 7、AirPods 3を使用している。彼にとって最大のメリットはApple Watchの電話の自動応答機能だと語ってくれた。
ご存知の通り、過去3年間、私はAppleに対し、Apple Watchに自動応答機能を導入するよう訴え続けてきました。そしてついに、watch OS 8でそれが実現しました!
この機能を初めてオンにすると、手首で電話を受けましたが、私と発信者にははっきりと聞こえました。私は障害のため Watch 画面に触れることができないため、電話に効果的に対応するために何もする必要はありませんでした。
これは、私のような重度の上肢障害を持つ人にとって非常に重要な、利便性、安全性、そしてアクセシビリティをもたらします。初めて試す機会を得た時は、本当に特別な瞬間でした。
しかし、彼はまた、非常に驚くべき欠点にも気づきました。それは、Siri を使用して自動応答機能をオンにできないことです。
自動応答は画面に触れることができない人のために設計された機能であるにもかかわらず、オンとオフを切り替えるために画面に触れる必要があるのは皮肉を通り越しています。
Siriの音声コマンド「Hey Siri、自動応答をオン/オフにして」やSiriショートカットの設定で、自動応答のオン/オフを切り替えられるようにしてください。例えば、家を出る時、特定の時間、朝ベッドから起きた時など、自動応答をオンにする設定も可能です。
さらに、バグと思われるものがあります。時計が手首ではなく充電器に接続されている場合、時計の自動応答がアクティブのままになります。
時計を腕から外して寝室に置いている時に自動応答が作動するのは少し不安です。腕から外して充電している時に自動応答をオフにし忘れた人にとっては、プライバシーに影響が出る可能性があります。
もうひとつの大きな成果は、通話と通知のアナウンス機能です。
これが私にとってどれほど大きな変化だったか、言葉では言い表せません。毎日、街を歩き回っている時、電話に出ています。時には本当に重要な電話も、「応答」ボタンを押すだけで、ハンズフリーで簡単に出られます。
自動応答をオンにしていない限り(残念ながら、介護者にオンにしてもらうように頼まなければなりません)、電話に出ることすらできませんでした。これは私のような人にとって本当に自立性を高めてくれます。
同様に、iOS 15 の通知アナウンス機能により、Airpods を装着しているときに Facebook Messenger や WhatsApp などのサードパーティ製アプリからの通知を初めて読み上げてくれるようになったのは嬉しかったです。iPhone を手に取って開いてメッセージや通知を読むことができない私にとって、この新しい機能はこれまでにないほど本当につながっていると感じさせてくれます。
私は、Outlook の重要なメールや WhatsApp メッセージなどをハンズフリーで処理し、AirPods を通じて耳に聞こえる音だけを頼りに、重要なことに迅速に対応して行動しましたが、これは本当に解放感があり、生産的です。
しかし、ここにはもう一つ驚くべき欠点があります。
Siriの音声コマンド「Hey Siri、通話を切って」で通話を切ることはまだできません。そのため、赤いボタンを押して通話を切ることができないため、毎日多くの問題が発生しています。幸いなことに、Appleはこの規定の不備に気づいており、解決策が出てくると確信しています。
同氏は、Siriはコマンドに関しては改善を続けていると語る。
Siriとショートカットはどんどん進化し、より速く、より反応が良くなっています。音声で操作できる家電製品が増えました。例えば、玄関のドアを開けて、アパートの出入りもできます。「Hey Siri、ドアを開けて」と言えば、Siriがドアを開けてくれます。
しかし、大量のテキストを口述する場合、パフォーマンスは依然として低くなります。
Apple製品もWindows製品も含め、デスクトップとラップトップの音声認識は現状、全体的にひどい状態です。私の生産性は、FirefoxブラウザのDragon Professionalと、MacでParallelsを使ってDragonを実行できるおかげで、ギリギリの状態です。
残念ながら、音声コントロールは今年ほとんど改善されておらず、短い(しばしば間違いだらけの)1、2文の音声入力にしか使えない状態が続いています。1000語のブログ記事を書いたり、ビジネスを運営したり、論文を書いたりするには、音声入力機能では到底足りません。Dragonと比べると、何時間もイライラすることになるはずです。
Appleユーザーとして、Googleが現在Pixel 6にTensorチップを搭載して実現していることを羨ましく思っています。仕事、教育、そして連絡のためにMacの音声認識に頼っている重度の身体障がいを持つユーザーのために、Appleにはまさにそのような高度な機能を提供してほしいと思っています。
テクノロジーとコミュニケーションへのアクセスは人権だと信じています。音声認識は私にとって世界とコミュニケーションをとる唯一の手段であり、ハートの絵文字で「お誕生日おめでとう」と声を出す以上の、もっと大人らしいことをする手段です。音声認識に頼っている障がいのある人たちは、もっと良いサービスを受けるに値します。
Appleは5月に、上肢の可動域が制限されている人向けに特別に設計されたApple Watch向けAssistiveTouch機能を発表しました。同社はこの機能について以下のように述べています。
Appleは、運動機能に制限のあるユーザーをサポートするため、Apple Watchに革新的なアクセシビリティ機能を導入しました。watchOSのAssistiveTouchにより、上半身に障害のあるユーザーは、ディスプレイやコントロールに触れることなくApple Watchの機能を活用できます。
Apple Watchは、ジャイロスコープや加速度センサーなどの内蔵モーションセンサー、光学式心拍センサー、そしてデバイス上の機械学習を活用することで、筋肉の動きや腱の活動の微妙な違いを検知し、つまむ、握るといった一連のハンドジェスチャーでディスプレイ上のカーソルを操作できます。Apple WatchのAssistiveTouchにより、手足に障害のある方でも、着信に応答したり、画面上のモーションポインターを操作したり、通知センターやコントロールセンターなどにアクセスしたりすることがより簡単になります。
ヒューズ氏は、彼にとって、この計画は完全に期待に応えられなかったと語る。
腕と手の筋力が限られているため、AssistiveTouchを起動することができません。どうやら、アクセシビリティ機能を起動するには腕と手の物理的な動きが足りないようです。Appleは一体誰のためにこれを設計したのか疑問に思います。なぜなら、理論上は私のような人のために作られているはずだからです。私は完全に麻痺しているわけではなく、画面を起動して拳を握るには腕と手の可動域が十分ですが、どうやらAssistiveTouchを使うにはそれだけでは不十分のようです。
上肢に障害のある人は、この技術を利用できない人が多いのではないかと思います。アクセス範囲を広げるために、微調整や改善の余地はあると思います。
彼は以前、iPhone XからiPhone 12まではCPAPマスクでFace IDが機能していたが、iPhone 13のよりコンパクトなノッチ技術では機能しなくなったとも述べていた。
アクセシビリティのニーズがある場合は、コメント欄でご自身の経験を共有してください。
www.ikvalue.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。