ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Startseite
  Neuigkeiten
  Historie
  Pressestimmen
  Redaktion
  Kontakt
  Sitemap
  Haftungsausschluss
  Impressum


NEUIGKEITENals RSS-Feed abonnieren

26.04.2009
Spracherkennung auf dem Vormarsch (Wolfgang Back)

Nachdem ich schon wieder ein Update von Dragon NaturallySpeaking bekam, will ich das doch wieder einmal ausprobieren. Mittlerweile sind es 200 MB, die bei mir eingetroffen sind. Die Frage ist, ob damit jetzt die Erkennung besser ist, oder ob es ein nutzloses Update war? Lassen (All das), was sie jetzt hier zu lesen bekommen, wurde mit der Stimme diktiert und es wurde nichts an dem Text geändert. Dieses ist jetzt die erste Sprachpause, bei der ich einmal nachschauen will, wie sich das Update geändert hat. Eigentlich ist der Erfolg recht gut.
Natürlich muss man sich an das Diktieren auch gewöhnen. Als ich noch im Beruf war, der(da) hatte es meine Sekretärin relativ leicht, da ich alle Texte selbst am Computer schrieb und das Diktieren war ich nicht gewöhnt. Es ist schon eine Umstellung, wenn man die Interpunktion dazu diktieren muss, damit man später nicht noch einmal den kompletten Text lesen muss. Bisher, so sehe ich, hat die Spracherkennung alles richtig gemacht und es macht Mut, die Software öfter einzusetzen.
Natürlich kann durch den häufigen Gebrauch die Erkennung besser werden. Im Gegensatz zu den vielen Versuchen, wie ich schon alle mitmachen durfte, ist dies ihr eine erste befriedigende Lösung. Damals gab es ja Versuche von IBM  mit viavoice und auch Dragon war schon recht früh mit einer Version dabei. Weiter unten damals waren die Computer noch recht langsamen und die Erkennung war mehr zufällig, als dass man sie hätte einsetzen können. Natürlich gab es Berufsbilder, wie schon sehr früh mit einer Spracherkennung arbeiteten. Schon Anfang der Neunzigerjahre des letzten Jahrhunderts machte ich eine Sendung im Klinikum in Aachen, wo wir zeigten, wie die Befundärzte nach einem Röntgen Vorgang Befunde der Mikrofon in das System speisten. Das hatte den Vorteil, dass bei der Vernetzung des Klinikums das Ergebnis der Röntgenaufnahme direkt im System in der Station verfügbar war. Oft sparte man dadurch einen ganzen Tag, ein wichtiger Tag, an dem das Ergebnis den Ärzten früher bekannt war.
Auch für Rechtsanwälte gab es schon relativ früh brauchbare Software, da  deren Sprachschatz zum Teil vom allgemeinen Sprachschatz relativ weit weg ist.
Schwierigkeiten bekommt die Spracherkennung natürlich bei gleich klingenden Worten. Ich will dies hier einmal ausprobieren. Eins(ein), Main(mein), seien(sein), Bein(Bein), klein(klein), rein(rein), seien(fein), feinen(Hein), feinen(Hain). In den Klammern steht das Wort das ich meinte und das ich in meiner Weise ausgesprochen habe. Nicht immer lag die Erkennung richtig aber das sind auch die schwierigsten Probleme, die zu lösen sind. Das, was NaturallySpeaking jetzt ohne allzu großes Training zu Stande bringt, ist schon erstaunlich und es ist ein großer Schritt hin zur neuen Schnittstelle Mensch Maschine, von der viele glauben, dass sie unsere Zukunft bestimmen wird.
Am besten sind natürlich die Menschen dran, von denen man sagt, "Das was sie sagen, ist wie gedruckt." Viele Dinge können dann sehr viel einfacher in der Handhabung werden. Zum Teil kennt man die Spracheingabe ja schon beim Handy, obwohl die wenigsten diese Möglichkeit auch benutzen. Auch das Navigationsgerät im Auto dürfte einfacher zu bedienen sein, wenn man ihm einfach sagen kann," fahre jetzt nach XYZ."
Der Mann (Da man) mit diesem Erkennungssystem auch Audiodateien einlesen kann und diese erkennen lässt, werde ich in den nächsten Tagen einmal weiter in diese Richtung spielen. Wenn es einigermaßen gelingt, eine Sendung zu erkennen und daraus einen ASCII Text zu machen, dann könnte das eine sehr interessante Applikation sein. Die Ergebnisse werde ich dann hier einmal diskutieren.


17 Kommentare
zurück zum Archiv

Druckversion Impressum Haftungsausschluss