Intelligente Systeme würden davon profitieren, wenn sie Lautquellen in realen Umgebungen finden und verfolgen könnten. Solch eine Fähigkeit kann beim Finden einer Person oder eines interessanten Ereignisses in der Umgebung nützlich sein und stellt auch Verbesserungen für andere Anwendungen wie Spracherkennung bereit. Um Rechnern diese Fähigkeit zu geben, ist die Herausforderung nicht nur, die simultanen Lautquellen zu orten, sondern ihren Bewegungen über die Zeit zu folgen. Das Projekt ManyEars verwendet hierfür eine Reihe von acht Mikrofonen. Die Methode beruht auf einer Frequenzdomänen-Implementierung eines gesteuerten Strahlenformers und auf einem Verfolgungs-Algorithmus, der auf Partikelfiltern beruht. Tests an einem mobilen Roboter zeigen, dass der Algorithmus in Echtzeit mehrere sich bewegende Quellen in einem Bereich von 7 Meter orten und verfolgen kann. Diese neuen Fähigkeiten ermöglichten es dem Roboter, mit natürlicheren Mitteln mit Personen zu interagieren. Das Projekt ManyEars stellt eine einfach zu benutzende C-Bibliothek für das Verarbeiten der Mikrofon-Linie zur Verfügung. Sie enthält die Ortung von Lautquellen, Verfolgung und Trennung. Eine Qt-Oberfläche für Feineinstellungen ist verfügbar. (non)