Die Strategie einer Repräsentation erfordert keine möglichst gründliche und umfangreiche Informationserfassung und -verarbeitung, sondern eine geschickte Verdichtung des vorhandenen Informationsgehaltes. Wie der Name schon andeutet, wird die Menge der möglichen Informationen lediglich repräsentiert. Repräsentation steht also stellvertretend für die gesamte Information. Das Konzept der Repräsentation ist nicht nur eine Strategie zur Reduzierung von Rechenleistung oder Sensoren. Es ist vielmehr ein Modellierungsparadigma und sogar eine technische Notwendigkeit, um die Modellierung deterministischer Gesetzmäßigkeiten auf der Grundlage statistischer und komplexer Prozesse zu konstruieren und zu automatisieren.
Der Begriff der Repräsentation stammt aus der statistischen Physik. Über die Quantenphysik werden Gesetzmäßigkeiten von Fluktuationen definiert, daraus Gesetze für Atome, daraus Gesetze für Moleküle und daraus Gesetze für molekulare Strukturen usw. Am Ende steht ein repräsentatives E-Modul auf Makroebene, das die Deformationsbedingungen der darunter liegenden Skalen mit einem Wert für die Steifigkeit darstellt. Diese Skalenübergänge werden mit der Technik der so genannten repräsentativen Volumenelemente berechnet. Mit den nun gewonnenen Modellen und geometrischen Informationen wird schließlich ein Bauteil errechnet. Die Steifigkeit ist natürlich auch über den Versuch definierbar, doch erst ein tiefes Verständnis und skalenübergreifende Zusammenhänge machen Probleme mit z.B. der Steifigkeit oder Festigkeit sichtbar. Normalerweise sollten diese Erkenntnisse zur Beseitigung von Fehlerquellen oder generell für Optimierungen genutzt werden. Darstellungen funktionieren für Systeme, die aus einer großen Menge von selbstähnlichen Prozessen und wechselwirkenden Elementen zusammengesetzt sind, in denen die Hebel tendenziell zentriert sind. In der statistischen Physik sind Darstellungen meist Erwartungswerte in Form von Integralen über alle betrachteten und möglichen Zustände. Es ergeben sich aber nicht immer direkt die Erwartungswerte im Sinne von Medianwerten, sondern die statistische Verteilung derselben. Nur aufgrund der Grenzwerttheorie nähern sich alle Verteilungen einer Gauß-Poisson-Verteilung an und damit konvergieren die Erwartungswerte zu Medianwerten. Dies gilt zumindest für stabile Prozesse. Man könnte es auch andersherum drehen und sagen, dass stabile Prozesse durch ihre Annäherung an gaußverteilte Größen gekennzeichnet sind. Dies ist in der Fachwelt seit langem bekannt und z.B. die stille Begründung für die Six-Sigma-Methode im Qualitätsmanagement. Ein signalverstärkendes System ist eine technische Umsetzung, die dieses Konzept für Produktionsanlagen automatisch und mit hoher Auflösung verallgemeinert.
Das Konzept der Repräsentation verhindert, dass Informationen lokal und in großem Umfang gesammelt werden, während wichtige Daten ausgeschlossen werden. Ziel ist die möglichst vollständige Darstellung der Produktion, nicht eine große Ansammlung beliebiger Daten. Im Gegensatz zum Big-Data-Prinzip steht die Implementierung eines signalverstärkenden Systems nicht im Widerspruch zum Streben nach minimalem Aufwand.
So wäre es z.B. möglich, anstelle eines einzelnen Temperatursensors eine Infrarotkamera zu installieren. In diesem Fall würde man primär viele Signale für jedes Pixel erhalten. Zur Darstellung würde eine selektive Mittelwertbildung verwendet werden. Redundante Informationen, die zwar an der Oberfläche variieren, zeigen keinen direkten Mehrwert und sind daher eine Verschwendung von Ressourcen. Eine Repräsentation steht stellvertretend und beispielhaft für ein Ereignis, das irgendwo auf der Oberfläche bzw. in einem Volumen auftritt und sich dort in irgendeiner Weise ausbreitet. Ein Beispiel: Ein Satz wird gesagt. Je nachdem, wo man das Mikrofon aufstellt, unterscheiden sich die registrierten Amplituden in verschiedenen Frequenzbereichen und überlagern sich asynchron über Reflexionen an den Wänden. Im Allgemeinen gibt es ein starkes Signal, das je nach Messort variiert. Eine Spracherkennung führt jedoch immer zum gleichen Ergebnis und verdichtet die Informationen sogar auf ein Transkript inkl. weiterer Informationen des Sprechers. Ein einzelnes lokal erfasstes Signal kann also das Geschehen im ganzen Raum repräsentieren, ohne den Anspruch, die gesamte Schalldruckverteilung zu erfassen. Das Signal kann sich auf seinem Weg vom Ursprung mit dem reinsten Informationsgehalt bis zum Messpunkt verändern. Die Darstellung muss nur den ausreichenden Anteil des Rückstoßes erfassen. Sie muss nicht auf dem Hot Spot der Ursache liegen. Die Wahl eines Abbildungspunktes ist daher oft relativ gleichmäßig. Alternativ zur erstgenannten Infrarotkamera kann man auch über mehrere Mikrofone die Hebelwirkungen von Reflexionen berechnen. Dies kommt einer konstanten vollautomatischen Messung im Zentrum der Schallquelle gleich. Eine schöne Ergänzung für ein SES, aber für ein Frühwarnsystem oft nicht so nützlich wie es sein sollte. Wie bereits gezeigt, funktioniert die Mustererkennung auch ohne diese Art von Aufwand. Zusätzliche Informationen zur Lokalisierung sind natürlich vorhanden und Muster werden bei einem solchen System in der Regel genauer erkannt. Allerdings ist der Aufwand entsprechend um ein Vielfaches höher. Realisiert ist so etwas in einem System wie dem Amazon Echo Dot. Allerdings werden auch hier sieben Mikrofone verwendet, um ein einziges repräsentatives Signal zu erzeugen, das dann zur akustischen Erkennung wandert. Als Extra wird die Position des Sprechers ermittelt. Eine präzise Erfassung bedeutet also nicht, dass mehr Daten gesammelt werden, sondern lediglich eine Steigerung der Qualität des Repräsentationssignals. Die Repräsentationsstrategie ist dem Big-Data-Ansatz diametral entgegengesetzt, bei dem zunächst möglichst viele Daten in einen Datensee gelegt werden, um dort die Auswertung zu starten. Das Konzept eines signalverstärkenden Systems ähnelt eher dem eines Data Warehouse.