Übersetzung von Uni-vorlesungen in mehreren Sprachen

Fortschritte in der Kommunikationstechnologie haben einen großen Einfluss in alle möglichen Branchen, aber vielleicht keiner größer als in der Bildung. Jetzt kann jeder aus der ganzen Welt hören können, live zu einem Nobelpreisträger-Vortrag oder verdienen Sie credits, die von den meisten renommierten Universitäten mit nichts mehr als internet-Zugang. Jedoch, die möglichen Informationen werden gewonnen aus der Beobachtung und online hören verloren ist, wenn das Publikum die Sprache nicht versteht, der Dozent. Um dieses problem zu lösen, haben Wissenschaftler der Nara Institute of Science and Technology (NAIST), Japan, eine Lösung vorgestellt, die mit neuen machine-learning an der 240-meeting der Special Interest Group of Natural Language Processing, Information Processing Society of Japan (IPSJ SIG-NL).

Machine translation systems gemacht haben, ist es bemerkenswert einfach für jemanden zu bitten, für die Anfahrt zu Ihrem hotel in einer Sprache, die Sie noch nie gehört oder gesehen. Manchmal sind die Systeme machen können, amüsant und unschuldig Fehler, aber insgesamt erzielen Sie eine stimmige Kommunikation, zumindest für den kurzen Austausch in der Regel nur ein oder zwei Sätze lang. Im Falle einer Präsentation, die können erweitern Vergangenheit eine Stunde, zum Beispiel, ein wissenschaftlicher Vortrag, Sie sind weit weniger robust.

„NAIST hat 20% ausländischen Studierenden und, während die Anzahl der Englisch-Klassen erweitert, die Optionen haben diese Studenten sind begrenzt durch Ihren japanischen Fähigkeit,“ erklärt NAIST Professor Satoshi Nakamura, der die Studie leitete.

Nakamuras Forschung Gruppe erworben 46.5 Stunden des archivierten Vortrags-videos von NAIST mit Ihren Transkriptionen und übersetzungen in Englisch, und entwickelt ein tiefes learning-basiertes system für die Transkription der japanischen Vortrag die Rede und es ins englische übersetzen. Beim anschauen des videos, die Benutzer sehen würden, Untertitel in Japanisch und Englisch, der auf der Dozentin sprechen.

Man könnte erwarten, dass die ideale Ausgabe wäre simultane übersetzungen, die getan werden könnte, mit live-Präsentationen. Allerdings, live-übersetzungen begrenzen, die Bearbeitungsdauer und somit die Genauigkeit.

„Da setzen wir videos mit Untertiteln in den Archiven, fanden wir bessere übersetzungen durch das erstellen von Untertiteln mit einer längeren Bearbeitungszeit“, sagt er.

Das archivierte Filmmaterial für die Bewertung Bestand aus Vorträgen aus der Robotik, Sprachverarbeitung und das software engineering. Interessanterweise ist das Wort Fehlerrate bei der Spracherkennung in Korrelation mit dem Stottern in der Dozenten Sprache. Ein weiterer Faktor, der sich aus der unterschiedlichen Fehlerraten war die Länge der Zeit zu sprechen, ohne pause. Der Korpus verwendet für die Ausbildung war unzureichend, und die mehr entwickelt werden sollten, die für weitere Verbesserungen.

„Japan will zur Steigerung seiner internationalen Schüler-und NAIST hat die große Chance, ein führendes Unternehmen in diesem Unterfangen. Unser Projekt wird nicht nur zur Verbesserung der maschinellen übersetzung, es bringt auch helle Köpfe im Land,“ fuhr er Fort.