Frage

Ich möchte meine Verwirrung über den Erfassen und Rendern von Audio mit nativem Code auf der Android -Plattform befassen. Was ich gehört habe, ist, dass es eine API für Audio namens OpenSL gibt. Gibt es empfohlene Anleitungen und Tutorials, wie man es benutzt?

Gibt es auch gute Audio -Wrapper für OpenSL, wie z. B. einen Openal -Wrapper oder so? Ich habe den Audio-Teil mit Openal auf anderen Plattformen entwickelt, daher wäre es schön, den Code wiederzuverwenden.

Gibt es Einschränkungen für OpenSL - wie etwas, das im Java -Code getan werden muss?

Wie viel unterscheidet sich OpenSL zu Openal?

Vielen Dank!

War es hilfreich?

Lösung

Es gibt ein nationales Audio -Beispiel im Beispiel für die kürzlich durchgeführten NDK -Veröffentlichungen.

Es behauptet zu verwenden opensl es

Andere Tipps

OpenSL und Openal unterscheiden sich in Bezug auf Schnittstellen ein wenig schnell. Sie haben jedoch ein sehr ähnliches Muster und der Anwendungsfall ist ebenfalls ähnlich. Eine, die sich bewusst ist, ist, dass in der aktuellen Implementierung eröffnet wird, die unter den gleichen Latenzproblemen leidet, die die Java -Audio -APIs haben.

Wenn Sie OpenSL verwenden, müssen Sie keinen Java -Code anrufen. Die neueste NDK hat Unterstützung für einen nativen Vermögensverwalter, also nicht mehr durch JNI, um Byte -Arrays zu übergeben :)

Lizenziert unter: CC-BY-SA mit Zuschreibung
Nicht verbunden mit StackOverflow
scroll top