Wir haben begonnen, den Building Accessibility Service für Android unter Ссылка zu betrachten. Basierend auf dieser Dokumentation können wir im Auftrag des Benutzers benutzerdefinierte Gesten ausführen, wie im Abschnitt "Aktionen für Benutzer ausführen" unter Ссылка . Wir haben folgende Fragen basierend auf dieser Dokumentation.
1) Wie wir wissen, gibt es Gesten, die der Benutzer ausführen würde und auf die unser Code hören würde. Nennen wir diese hörenden Gesten. Dann gibt es Gesten, die von unserem Code für den Benutzer ausgeführt werden könnten. Lassen Sie uns diese Darstellenden Gesten nennen. Frage: Wie wirkt sich das Ausführen von Gesten aus - über der Ebene "Berührung und erkunden" oder unter der Ebene "Berührung und erkunden"? Für weitere Informationen ist die Funktion "Touch-and-explore" eine Funktion des Android-Betriebssystems, die von den Accessibility Services angefordert werden kann.
2) Löst das Performing Gesture ein AccessibilityEvent aus, das dem Accessibility Service mitgeteilt wird? Wenn ja, besteht die Möglichkeit einer Rekursion, wenn sowohl das Zuhören als auch das Ausführen der Geste identisch sind. Das ist das Zuhören Geste könnte nach rechts wischen, was ein Ereignis auslöst. Performing Gesture ist auch ein Streichen nach rechts. Nun wird dies wiederum denselben Ereignishandler auslösen.
3) Wie stellen wir fest, dass die Ausführung der Geste erfolgreich ausgeführt wurde? Das Ganze ist von Bedeutung, wenn das Ausführen von Gesten unter der Ebene "Touch-and-explore" stattfindet.
Jede Hilfe würde sehr geschätzt werden.
Tags und Links android accessibility android-accessibility