Accessible Published by Oldenbourg Wissenschaftsverlag March 23, 2019

Methoden zur hyperspektralen Bildverarbeitung unter Einbezug von Nachbarschaftsinformation

Methods for hyperspectral image processing incorporating adjacency information
Sebastian Bauer and Fernando Puente León
From the journal tm - Technisches Messen

Zusammenfassung

Hyperspektrale Bildgewinnung und -verarbeitung ermöglicht die berührungslose Untersuchung einer Vielzahl von Materialien und Produkten. Die Anwendungsgebiete reichen dabei von der Beurteilung der Lebensmittelsicherheit über die medizinische Bildgebung bis hin zur industriellen Sortierung. Während Hyperspektraluntersuchungen aufgrund der teuren Hardware und komplexen Datenverarbeitung bis vor einigen Jahren hauptsächlich im Labor stattfanden, haben die technischen Entwicklungen der letzten Jahre dazu geführt, dass sie mittlerweile echtzeitfähig sind und inline vorgenommen werden können.

Dieser Artikel beschäftigt sich mit Methoden zur Verarbeitung und Informationsextraktion von Hyperspektralbildern, hauptsächlich der Entrauschung und der spektralen Entmischung. Die vorgestellten Methoden beziehen die inhärent enthaltene, aber meist ignorierte, Nachbarschaftsinformation mit ein.

Abstract

Hyperspectral imaging and processing allows for non-contact analysis of a plethora of materials and products. Applications can be found for example in food safety, medical imaging and industrial sorting processes. Due to expensive hardware and complex data processing, hyperspectral analysis was mainly limited to a laboratory environment up until a couple of years ago. In the meantime, technical progress has led to real-time inline applications of hyperspectral analysis.

This article focuses on methods for hyperspectral image processing and information extraction, namely denoising and spectral unmixing, that incorporate adjacency information. Most existing algorithms ignore this inherent property of hyperspectral images.

1 Einleitung

Hyperspektrale Bildgewinnung, manchmal auch bildgebende Spektroskopie genannt, liefert für jedes Pixel einer betrachteten Szene ein dicht abgetastetes Spektrum. Es steht somit ein dreidimensionaler Datenwürfel mit zwei räumlichen und einer spektralen Dimension zur Verfügung. Diese Art der Bildgewinnung ist zwar bereits über 100 Jahre alt [1], aber erfuhr erst Mitte der 80er Jahre durch die Verwendung in der Fernerkundung [2], [3], [4] einen weithin beachteten Aufschwung. Die mittels luft- oder satellitengestützter Kameras aufgenommenen Bilder der Erdoberfläche oder der Erdatmosphäre [5] finden vielfältigen Nutzen beispielsweise zur Mineralerkundung [6], Vegetationsüberwachung [7] und Meeresanalyse [8]. Sie ermöglichen die Lösung von Fragestellungen, die mit herkömmlichen Grauwert- oder Farbbildern nicht lösbar sind. Allerdings waren und sind mit hyperspektraler Bildgebung wesentliche Nachteile wie der große Hardwareaufwand sowie die hohen Kosten und das signifikante Datenvolumen, das zur Informationsextraktion weiter verarbeitet werden muss, verbunden. Die folgende technische Entwicklung von Hyperspektralkameras sowie die damit verbundenen sinkenden Kosten ermöglichten deren Laboreinsatz beispielsweise in der medizinischen Diagnostik [9], [10] oder zur Lebensmittelsicherheit [11], [12], [13]. Erste kommerzielle Geräte zur hyperspektralen Inlineuntersuchung sind mittlerweile verfügbar, siehe beispielsweise [14], [15], [16]. Parallel zur Evolution der Hardware entwickeln sich die Methoden zur Informationsextraktion weiter. Oftmals werden chemometrische Methoden auf Hyperspektralbilder angewendet bzw. speziell für diese entwickelt [17], [18]. Auf weitere Methoden wird im Folgenden noch genauer eingegangen.

Im Unterschied zu Multispektralbildern, bei denen wenige Spektralbereiche mit unterschiedlichen Abständen zueinander zu jeweils einem Wellenlängenkanal zusammengefasst werden, tasten Hyperspektralkameras das Spektrum gleichmäßig ab und liefern dabei bis zu mehrere hundert Wellenlängenkanäle. Die gleichzeitige Gewinnung von räumlicher und spektraler Information kann dabei auf vielfältige Weise erfolgen. Am weitesten verbreitet sind [19]

  1. Räumliches Scannen: Die zu untersuchende Fläche wird von einem Punktspektrometer oder einer Zeilenkamera in Verbindung mit einem dispersiven Element zwei- bzw. eindimensional abgetastet.

  2. Spektrales Scannen: Mittels Hardware- oder programmierbaren Filtern wird aus dem vollständigen Spektrum der interessierende Spektralkanal ausgeschnitten und mittels eines herkömmlichen 2D-Sensors ein Bild angefertigt. Der Prozess wird für alle Spektralkanäle wiederholt.

  3. Sogenannte Schnappschuss-Aufnahme: Diese relativ neuen Techniken liefern in einem einzigen Aufnahmevorgang einen vollständigen Datenwürfel. Dabei wird das Licht beispielsweise spektral aufgespalten und für jeden Farbkanal ein separates Teilbild auf demselben Sensor abgebildet. Alternativ kommt Compressive Sensing zum Einsatz: Das von der Szene ausgesandte Licht wird gleichzeitig räumlich und spektral moduliert und nach der Aufzeichnung wird mithilfe von Rekonstruktionsmethoden der vollständige Datenwürfel berechnet [20].

Hyperspektraluntersuchungen finden nicht nur im sichtbaren Wellenlängenbereich, sondern auch im ultravioletten und infraroten statt. Die Auswahl des Spektralbereichs hängt dabei oftmals von der gegebenen Aufgabenstellung und den damit verbundenen spektralen Charakteristika der Proben ab. Auch Fluoreszenz kann mittels Hyperspektralanalyse erfasst werden, beispielsweise zur Materialsortierung [21].

Die Methoden zur Informationsextraktion aus Hyperspektralbildern lassen sich im Wesentlichen in die folgenden Gruppen unterteilen:

  1. Klassifikation: Basierend auf spektralen und ggf. räumlich-spektralen Merkmalen weist ein automatisierter Klassifikator jedes Pixel einer vordefinierten Klasse zu. Während dabei meist davon ausgegangen wird, dass jedes Pixel ausschließlich zu einer Klasse gehört, existieren auch Ansätze zur Klassifikation gemischter Pixel [22].

  2. Zielentdeckung (engl.: target detection): Aufgrund der großen Entfernungen in der Fernerkundung ist die räumliche Auflösung von Hyperspektralbildern meist sehr gering, sodass jedes einzelne Pixel Kantenlängen im Bereich von einem bis dutzenden Metern besitzt. Dadurch besteht ein Pixelspektrum nicht aus einem einzelnen Reinspektrum, z. B. dem von Gras, sondern setzt sich aus verschiedenen Teilspektren zusammen. Methoden der Zielentdeckung liefern dabei für jedes Pixel die qualitative Aussage, ob ein bestimmtes Zielspektrum im Mischspektrum vorhanden ist [23].

  3. Spektrale Entmischung: Während die Zielentdeckung nur eine qualitative Aussage liefert, ist die quantitative Aussage das Ziel der spektralen Entmischung (engl.: spectral unmixing). Dabei wird jedes Pixelspektrum in die Reinspektren sowie deren Anteile zerlegt. Sind die Reinspektren bekannt, spricht man von überwachter Entmischung, während unüberwachte Entmischung sowohl die Reinspektren als auch die Anteile liefert.

Die Restauration von Hyperspektralbildern vor der Informationsextraktion umfasst neben beispielsweise der Korrektur defekter Pixel [24] und der passenden Ausrichtung der einzelnen Spektralbänder vor allem die Entrauschung.

Alternativ zur Verarbeitung von Hyperspektralbildern zur Informationsextraktion ist es möglich, optische Spektralfilter so zu programmieren, dass die gesuchte Information, beispielsweise die Materialanteile, unmittelbar als 2D-Grauwertbild verfügbar ist. Erste Ansätze sind z. B. in [25], [26], [27] beschrieben und nicht Teil der folgenden Betrachtungen.

In diesem Artikel wird zum einen ein neuartiger Entrauschungsalgorithmus vorgestellt, während zum anderen Methoden zur spektralen Entmischung vorgestellt und diskutiert werden, welche räumliche Information mit einbeziehen. Während diese bei der Entrauschung meist verwendet wird, wird sie bei der spektralen Entmischung bisher nur selten berücksichtigt. Der vorliegende Artikel gliedert sich wie folgt: Nach dieser Einleitung folgt in Abschnitt 2 eine kurze Diskussion zum Stand der Technik der hyperspektralen Bildentrauschung. Außerdem werden zwei Varianten eines neuartigen, leistungsfähigen Entrauschungsalgorithmus vorgestellt. Nach der Präsentation der Ergebnisse dieses Algorithmus geht Abschnitt 4 auf den Einbezug von Nachbarschaftsinformation in die spektrale Entmischung von Hyperspektralbildern ein und stellt neuartige Entmischungsmethoden vor. Abschnitt 5 schließt mit einer Zusammenfassung und einem Ausblick auf die Zukunft von Hyperspektraluntersuchungen.

2 Entrauschungsalgorithmus

Während man Hyperspektralbilder jeweils auf der Ebene von eindimensionalen Pixelspektren oder zweidimensionalen Bändern betrachten und dann herkömmliche Methoden zur 1D-Entrauschung bzw. Bildentrauschung anwenden kann, ist es vorteilhaft, alle drei Dimensionen gleichzeitig mit einzubeziehen. Im Folgenden seien einige bestehende Ansätze beispielhaft genannt. Ein Entrauschungsansatz basiert auf der Erweiterung des zweidimensionalen Total Variation-Ansatzes (TV) [28] auf die dritte (spektrale) Dimension durch eine weitere 1D-Filterung [29]. Da er räumliche und spektrale Schwankungen von Signal und Rauschen ignoriert, haben Yuan et al. [30] eine adaptive TV-Methode (SSAHTV) entworfen. Qian et al. [31] haben den Non-local Means-Algorithmus von [32] auf 3D-Bilder erweitert. Auch die anisotrope Diffusion [33] wurde für Hyperspektralbilder angepasst [34]. Des Weiteren wurden Entrauschungsalgorithmen vorgestellt, die auf der Niedrigrang-Approximation basieren [35], [36], [37]. Der von Maggioni et al. [38] entwickelte Block-Matching and 4D Filtering-Algorithmus (BM4D) zur Entrauschung von allgemeinen dreidimensionalen Bildern kann auch auf Hyperspektralbilder angewandt werden. SSAHTV und BM4D werden für den neuen Algorithmus als Vergleichsverfahren herangezogen.

Der hier diskutierte neuartige Ansatz basiert auf der gewichteten Addition der 2D-Teilbilder bei jeder Wellenlänge. Er zeichnet sich durch eine dem Stand der Technik vergleichbare Bildqualität bei gleichzeitig deutlich schnellerer Berechnung aus. Für den Fall, dass das Bildrauschen vornehmlich durch eine Poisson-Verteilung beschrieben werden kann, wurde in [39] eine erste Version des Algorithmus vorgestellt. Poisson-Rauschen dominiert bei schwacher Lichtintensität gegenüber dem als normalverteilt angenommenen Sensorrauschen [40]. Außerdem lässt sich das Rauschen in von EMCCD-Sensoren (Electron Multiplying Charge Coupled Device) aufgenommenen Bildern in guter Näherung als Poisson-verteilt beschreiben [41]. Die Poisson-Variante des Entrauschungsalgorithmus wird im Folgenden auf normalverteiltes Rauschen erweitert. Zum einfacheren Verständnis wird zunächst die Poisson-Variante kurz beschrieben.

2.1 Dominantes Poisson-Rauschen

Das betrachtete Hyperspektralbild wird im Folgenden als YRX×Y×L bezeichnet. Hierbei stehen X und Y für die Pixelanzahl in beide räumliche Richtungen sowie L für die Anzahl der Wellenlängen. Die 2D-Teilbilder bei jeder Wellenlänge sind mit YlRX×Y (1lL) bezeichnet. Da diese Teilbilder als Matrizen behandelt werden, werden alle Rechenoperationen wie Addition, Subtraktion, Multiplikation, Division, Quadrierung sowie die Berechnungen von Erwartungswert und Varianz elementweise ausgeführt. Zunächst wird die Entrauschung für das Teilbild Yl eingeführt; die Berechnung für alle anderen Teilbilder erfolgt danach analog.

Im ersten Schritt wird Yl+1 gewichtet auf Yl addiert. Die Elemente beider Matrizen stellen Realisierungen der Poisson-verteilten Zufallsvariablen Yl und Yl+1 mit den Mittelwerten Λl und Λl+1 dar. Die beiden Zufallsvariablen werden als unkorreliert angenommen. Diese Annahme mag oft verletzt sein, da benachbarte Teilbilder relativ ähnlich sein können, führt in der Praxis aber trotzdem zu guten Ergebnissen. Im Fall der Poisson-Verteilung entspricht der Mittelwert der Varianz. Es soll nun ein Schätzer für die Matrix Λl der tatsächlichen Mittelwerte hergeleitet werden. Da die wahren Bilder der Bänder l und l+1 im Allgemeinen verschieden sind, soll eine gewichtete Addition mit dem Ansatz

(1)Λˆl=Yl+Bl+1Cl+1Yl+11+Bl+1

verfolgt werden. Die Matrizen Bl+1 und Cl+1 stellen ortsabhängige Konstanten dar. An den Schätzer wird die Forderung der Erwartungstreue gestellt,

(2)E{Λˆl}=Λl+Bl+1Cl+1Λl+11+Bl+1=!Λl,

woraus die Bedingung

(3)Cl+1=ΛlΛl+1

resultiert. Aufgrund der Erwartungstreue entspricht der mittlere quadratische Fehler (Minimum Squared Error, MSE) des Schätzers seiner Varianz [42]. Um den Fehler zu minimieren und damit die Qualität der Schätzung zu verbessern, wird die Varianz minimiert:

(4)minBl+1Var{Λˆl}=minBl+1Λl+Bl+12ΛlΛl+12Λl+11+Bl+12.

Die Konstante Bl+1 wird damit zu

(5)Bl+1=Λl+1Λl

ermittelt. Aus den Gleichungen (1), (3) und (5) wird der vollständige Schätzer zu

(6)Λˆl=Yl+Yl+11+Λl+1Λl

bestimmt. Er besitzt den mittleren quadratischen Fehler

(7)MSE{Λˆl}=Var{Λˆl}=Λl+Λl+1(1+Λl+1Λl)2=11+Λl+1ΛlΛl.

Da 11+Λl+1Λl<1 gilt, ist die Varianz bzw. der MSE des Schätzers kleiner als die Varianz Λl der Zufallsvariablen Yl des ursprünglichen Bilds. Leider ist das Verhältnis Λl+1Λl der wahren Mittelwerte nicht bekannt und muss anderweitig geschätzt werden. Hierzu kommt die räumliche Nachbarschaft ins Spiel: Die beiden ursprünglichen Bilder Yl und Yl+1 werden unter der Annahme lokaler Ergodizität mit zweidimensionalen Gauß-Filtern geglättet. Diese Operation kann mit der Faltung bzw. der Multiplikation im Frequenzbereich effizient durchgeführt werden und liefert einen rauscharmen Schätzwert für das angesprochene Verhältnis. Das entrauschte Bild wird aus dem Schätzer Λˆl (6) durch

(8)Yˆl=Yl+Yl+11+Λl+1Λl

berechnet. Um den Rauschanteil noch weiter zu verringern, werden mittels

(9)Yˆl=Yl+Yl+1++Yl+Z1+Λl+1Λl++Λl+ZΛl

noch Z weitere Teilbilder des Hyperspektralbilds einbezogen. Z kann frei gewählt werden und stellt einen Parameter des Verfahrens dar. Die Breite N des quadratischen Filterkerns zur Gauß-Filterung wird zu

(10)N=1+8σGK

gewählt, wobei σGK der Standardabweichung entspricht und ein weiterer Parameter des Entrauschungsverfahrens ist.

Falls der dominierende Rauschanteil normalverteilt ist, entspricht die Varianz der Zufallsvariablen nicht länger dem Mittelwert. Die dadurch notwendige Betrachtung wird im Folgenden durchgeführt.

2.2 Dominantes Gauß’sches Rauschen

Auch für normalverteiltes Rauschen gilt ausgehend von (1) und (2) weiterhin

(11)Cl+1=ΛlΛl+1.

Die Varianz des Schätzers berechnet sich hingegen zu

(12)Var{Λˆl}=Var{Yl}+Var{Yl+1}Bl+12ΛlΛl+121+Bl+12.

Analog zu den vorigen Betrachtungen für Poisson-Rauschen werden die Herleitungen für normalverteiltes Rauschen durchgeführt, sodass der Schätzer in diesem Fall zu

(13)Λˆl=Yl+Var{Yl}Var{Yl+1}Λl+1ΛlYl+11+Var{Yl}Var{Yl+1}Λl+1Λl2

resultiert. Der MSE ergibt sich zu

(14)MSE{Λˆl}=Var{Λˆl}=11+Var{Yl}Var{Yl+1}Λl+1Λl2Var{Yl},

und es ist wiederum ersichtlich, dass die Varianz des Schätzers geringer als die Rauschvarianz im ursprünglichen Bild Yl ist. Das unbekannte Verhältnis der wahren Mittelwerte wird genau wie im Fall von Poisson-Rauschen mittels Gauß-Filterung berechnet. Die Varianzen Var{Yl} und Var{Yl+1} müssen innerhalb einer gewissen Umgebung N(x,y) um das jeweils betrachtete Pixel mit der Stichprobenvarianz

(15)Var{Yl,xy}=1N21m,nN(x,y)(Yl,mnYl,xy)2
(16)=1N21m,nN(x,y)Yl,mn2N2N21·Yl,xy2
geschätzt werden. Dabei steht Yl,xy für den Bildwert an der Position (x,y) des Bands l. Die Umgebung N(x,y) besitzt eine quadratische Form der Größe N×N um (x,y) und entspricht dem Gauß-Kern (10). Für die Mittelwertschätzung in (15) darf nicht die Gauß-Filterung verwendet werden, da hierbei eine andere Gewichtung als von der Formel für die Stichprobenvarianz gefordert verwendet wird. Erst nach vollständiger Berechnung von (16) wird die geschätzte Varianz mittels Gauß-Filterung geglättet.

Nach (13) wird, analog zu (8) im Poisson-Fall, das entrauschte Bild mittels

(17)Yˆl=Yl+Var{Yl}Var{Yl+1}Λl+1ΛlYl+11+Var{Yl}Var{Yl+1}Λl+1Λl2

berechnet. Der gleiche Prozess wird nacheinander für alle anderen Bänder l durchgeführt, wobei wie im Poisson-Fall auch jeweils Z weitere Teilbilder verwendet werden.

3 Ergebnisse der Entrauschung

Wie bereits angesprochen, wurden die Poisson-Variante des Entrauschungsalgorithmus und Ergebnisse seiner Anwendung auf hyperspektrale Fluoreszenzbilder in [39] vorgestellt. Weitere Ergebnisse mit Fluoreszenzbildern sind in [43] zu finden.

Tab. 1

MPSNR (Mean Peak Signal to Noise Ratio)-Werte aller Algorithmen angewandt auf das National Mall-Bild (in dB). Bei allen Rauschniveaus liefert der neue Algorithmus ähnliche Werte wie BM4D, meist bessere. Allerdings ist die Berechnung ungefähr 25-fach schneller als bei BM4D. Der Parameter σ von BM4D wird zu 0 gewählt, was bedeutet, dass der Algorithmus das Rauschniveau selbst schätzt. Die Spalte γ gibt den optimalen Parameterwert für SSAHTV an. Die verwendete Software ist MATLAB, die verwendete Hardware ein 3.5 GHz i7-Prozessor mit 16 GB RAM.

SNRVerr. BildNeuer AlgorithmusBM4DSSAHTV
MPSNRMPSNRZ/2σGKt/sMPSNRt/sMPSNRγt/s
10 dB21,5833,22141825,732,31494,927,45293,6
20 dB31,5839,6062018,739,50498,834,481021,6
30 dB41,5845,6922115,046,77500,442,505011,2
var.32,0739,4662119,739,35498,034,621020,8

Die Gauß-Variante des Algorithmus wird beispielhaft an einem Bild aus der Fernerkundung demonstriert. Dieses wurde mit dem HYDICE-Sensor (HYperspectral Digital Imagery Collection Experiment) aufgenommen und bildet die National Mall in Washington, DC ab [44]. Das gesamte Bild umfasst 1280×307 Pixel und 191 Bänder. Hier wird nur ein Ausschnitt der Größe 251×201 betrachtet, der ungefähr den Bereich umfasst, der auch in [30] untersucht wurde. Alle Wellenlängen wurden in die Entrauschung mit einbezogen. Das ursprüngliche Bild wird mit künstlichem Gauß’schen Rauschen versehen, wobei das SNR 10, 20 und 30 dB betrug. Zusätzlich wurde in einer vierten Variante das SNR der einzelnen Bänder zufällig zwischen 15 und 25 dB variiert. Der hier neu vorgestellte Algorithmus wird mit SSAHTV [30] und dem Block-Matching and 4D Filtering-Algorithmus (BM4D) [38] verglichen. BM4D ist eine Erweiterung des leistungsstarken Block-Matching and 3D Filtering-Algorithmus [45] auf dreidimensionale Bilder. Der SSAHTV-Quellcode wurde uns freundlicherweise von den Autoren der Veröffentlichung zur Verfügung gestellt, der BM4D-Quellcode ist online verfügbar [46]. Weitere Details sowie eine genauere Untersuchung des Entrauschungsergebnisses sind in [43] enthalten. Tabelle 1 gibt die Entrauschungsqualität als MPSNR (Mean Peak Signal to Noise Ratio), also mittleres bandweises SNR, an. Außerdem wird die Berechnungszeit aufgeführt. Es ist zu erkennen, dass der neue Algorithmus mit die beste Entrauschungsqualität liefert, dabei aber 25-fach schneller als der qualitativ ähnliche BM4D-Algorithmus abläuft. Dies liegt daran, dass der neue Algorithmus im Wesentlichen nur auf der effizient zu berechnenden Glättung mit Gauß-Filtern, also der Faltung, und der Addition von Teilbildern beruht. BM4D hingegen basiert auf einem deutlich komplexeren Verfahren; so sucht der BM4D im Bild zunächst nach ähnlichen Bildbereichen, um diese gemeinsam weiterzuverarbeiten. Für weitere Details siehe [38]. Abbildung 1 veranschaulicht die Entrauschungsergebnisse am Beispiel eines Bandes.

Abb. 1 Detailansicht eines Ausschnitts von Band 102 des National Mall-Bildes bei 10 dB SNR. Links oben: verrauschtes Bild, rechts: neuer Algorithmus. Mittlere Reihe links: BM4D, rechts: SSAHTV. Unten: tatsächliches Bild. Man beachte die Detailtreue des neuen Algorithmus, während die beiden anderen Algorithmen große Bildbereiche verschmieren.

Abb. 1

Detailansicht eines Ausschnitts von Band 102 des National Mall-Bildes bei 10 dB SNR. Links oben: verrauschtes Bild, rechts: neuer Algorithmus. Mittlere Reihe links: BM4D, rechts: SSAHTV. Unten: tatsächliches Bild. Man beachte die Detailtreue des neuen Algorithmus, während die beiden anderen Algorithmen große Bildbereiche verschmieren.

4 Spektrale Entmischung

Wie bereits in der Einleitung beschrieben, hat die spektrale Entmischung das Ziel, die gemischten Pixel eines aufgezeichneten Hyperspektralbilds in die Reinstoffe sowie ihre jeweiligen Anteile zu zerlegen. Oftmals wird dabei vom sogenannten linearen Mischmodell ausgegangen:

(18)Y=MA+Ψ.

Hierbei enthält die Matrix YRL×I spaltenweise die Pixelspektren des Hyperspektralbilds; das dreidimensionale Bild ist also in eine zweidimensionale Darstellung überführt worden. L steht wie bei der Entrauschung für die Anzahl der Wellenlängen und I beschreibt die Gesamtanzahl der Pixel, I=X·Y. Die Matrix Ψ enthält den Modellierungsfehler und Rauschen. Die Matrix Y setzt sich zusammen aus der Reinspektrenmatrix MRL×R und der Anteilsmatrix ARR×I, wobei R die Anzahl der Reinstoffe angibt. Die spektrale Entmischung muss also das gemessene Hyperspektralbild Y in diese beiden Matrizen zerlegen. Die Berechnung dieser Zerlegung erfolgt oftmals mit Methoden der Nichtnegativen Matrixzerlegung (Nonnegative Matrix Factorization, NMF) [47], nämlich durch Minimierung des Gütemaßes

(19)QBild(M,A)=MAYF2.
·F steht hierbei für die Frobeniusnorm. Die Optimierung geschieht durch alternierende Minimierung nach M für konstantes A und umgekehrt. Da sowohl die Reinspektren als auch die Materialanteile nicht negativ sein dürfen, wird diese Nebenbedingung mit in die Optimierung einbezogen. Außerdem müssen sich alle Materialanteile eines Pixels jeweils zu 1 aufsummieren. Das Gütemaß (19) ist bikonvex, d. h. es ist konvex jeweils in M und A, aber nicht gleichzeitig konvex für beide Matrizen. Aus diesem Grund wird es oftmals um weitere Terme erweitert, die Zusatzwissen in Form von Bedingungen an Reinstoffe (Rs(M)) bzw. Materialanteile (Rr(A)) einbeziehen:
(20)Q(M,A)=QBild(M,A)+μsRs(M)+μrRr(A).

Diese werden mit den Regularisierungsparametern μs und μr gewichtet. Das lineare Mischmodell vernachlässigt Interaktionen zwischen den einzelnen Reinspektren; diese können mit nichtlinearen Mischmodellen [48] modelliert werden, die allerdings nicht Gegenstand dieser Betrachtungen sind.

4.1 Einbezug räumlicher Nachbarschaft

Das Überblickspaper [49] aus dem Jahr 2012 enthält eine Reihe von Beispielen für spektrale und räumliche Regularisierungsterme Rs(M) bzw. Rr(A) in Gl. (20). Bis zu diesem Zeitpunkt wurde meist mit spektralen Regularisierungstermen gearbeitet, die zweifellos einen sehr großen Einfluss auf die Entmischungsqualität haben. Allerdings wird in der Referenz auch betont, dass die Verwendung von zusätzlicher Kontextinformation sehr vorteilhaft für die Analyse hyperspektraler Daten sein kann. Es werden einige Beispiele von Entmischungsalgorithmen genannt, die räumliche Information mit einbeziehen. Nach 2012 sind noch einige weitere solche Algorithmen hinzugekommen.

Während das übergeordnete Ziel des Einbezugs räumlicher Information natürlich die Verbesserung der Entmischungsqualität ist, kann diese auf unterschiedliche Art und Weise erreicht werden. Methoden wie z. B. die in [50] beschriebene haben das Ziel, den negativen Einfluss von Spektrenvariabilität zu verringern. Dabei wird berücksichtigt, dass aufgrund von unterschiedlichen Einflüssen wie zum Beispiel Objektgeometrie oder Lichtbedingungen [51] das Spektrum eines Reinstoffs nicht über das gesamte Bild als konstant angenommen werden kann. Ein anderer Ansatz wird beispielsweise in [52] verfolgt; hierbei wird die Nebenbedingung gestellt, dass die Anteile benachbarter Pixel möglichst ähnlich sein sollen. Dieser Ansatz wird im Folgenden noch genauer diskutiert. Einen Überblick zu Methoden zum Einbezug räumlicher Information in die spektrale Entmischung liefert beispielsweise [53].

Ausgangspunkt von [52] ist die Erweiterung des zum linearen Mischmodell gehörenden Gütemaßes (19) in Übereinstimmung mit dem allgemeinen Erweiterungsansatz (20), wobei hier nur die Regularisierung eines einzelnen Pixels statt der gesamten Anteilsmatrix A betrachtet wird. An die Materialanteile jedes Pixels i wird die Nebenbedingung gestellt, dass die Anteile der Pixel in einer bestimmten Umgebung N(i) möglichst ähnlich sein sollen. Dies wird mittels der Summennorm formuliert:

(21)jN(i)aiaj1.

Durch diese Nebenbedingung werden konstante Anteilsverläufe gefordert. Somit wird also, ähnlich wie bei TV, eine Minimierung der ersten räumlichen Ableitung bewirkt. Aufgrund der Tatsache, dass dadurch lineare Signalverläufe durch Sprünge approximiert werden, wurde diese Methode von Bauer et al. auf die Minimierung der zweiten räumlichen Ableitung [54] sowie auf eine lineare bzw. quadratische Gewichtung der Abweichung [55] erweitert.

Ein anderer Ansatz zur Verwendung von räumlicher Information wird in Bauer et al. [56] verfolgt. Dabei werden die Pixel des vorliegenden Hyperspektralbilds zunächst aufgrund von räumlichen und ggf. räumlich-spektralen Ähnlichkeitsmaßen geclustert. Im nächsten Schritt wird der Mittelwert der Pixelspektren eines Clusters gebildet, wodurch sich die Anzahl der Spalten der Bildmatrix Y zum Teil deutlich verringert. Dadurch wird die Entmischung deutlich schneller berechnet, während durch die Mittelung der Einfluss des Rauschens deutlich verringert wird. Eine ausführliche Betrachtung des Einflusses von Clustermethode und Clusteranzahl auf Entmischungsqualität und Berechnungszeit ist in [43] zu finden. Diese Methode beeinflusst also gleichzeitig die Entmischungsqualität und die dazu benötigte Berechnungszeit. Im Unterschied dazu wird in Bauer et al. [57] das Konzept der Bildpyramiden zur beschleunigten Berechnung der Entmischung verwendet. Die resultierende Methode erlaubt es, Berechnungszeit und Entmischungsgüte auszutarieren; eine schnelle Berechnung liefert ausbaufähige Ergebnisse, wohingegen eine gute Entmischung mehr Berechnungszeit erfordert.

4.2 Einbezug globaler 3D-Nachbarschaft

Bis hierhin wurde nur die räumliche Pixelnachbarschaft diskutiert, in manchen Fällen ergänzt um eine gewisse spektrale Komponente. Dies wirft die Frage auf, wie die Entmischungsqualität von der Verwendung der globalen im Bild vorhandenen 3D-Nachbarschaft profitieren kann, also wie 3D-Nachbarschaftsbeziehungen auf unterschiedlichen Entfernungsskalen genutzt werden können. In der Literatur existieren Ansätze wie z. B. [58], die das Hyperspektralbild nicht in die zweidimensionale Matrix Y entfalten, sondern es als dreidimensionalen Tensor weiterverarbeiten. Obwohl die Weiterverwendung als Tensor natürlich jedes Bildelement während der nächsten Schritte in seiner ursprünglichen Nachbarschaft belässt, stellt sich die Frage, inwieweit der Tensor-Ansatz die Verwendung von Nachbarschaftsrelationen auf größeren Skalen zulässt. Diese Frage soll hier nicht diskutiert werden; stattdessen soll das in [43] ausführlich vorgestellte Verfahren, welches die gesamte dreidimensionale Nachbarschaft verwendet, kurz umrissen werden.

Ausgangspunkt des Verfahrens ist die Tatsache, dass bestimmte dreidimensionale Transformationen wie beispielsweise die 3D-Kosinustransformation (Discrete Cosine Transform, DCT) genau die gefragte globale dreidimensionale Nachbarschaft der Bildelemente ausnutzen bzw. codieren. Die Anwendung der 3D-DCT liefert einen Würfel von der gleichen Größe wie das ursprüngliche Hyperspektralbild. Der neue Datenwürfel enthält die Koeffizienten yfx,fy,fl der dreidimensionalen Ortsfrequenzen. Diese werden aus den Bildelementen yx,y,l berechnet mittels

(22)yfx,fy,fl=1XYLx=0X1y=0Y1l=0L1yx,y,l=·cosπXx+12fxcosπYy+12fy=·cosπLl+12fl.

Aus der Formel ist ersichtlich, dass die Vertauschung von lediglich zwei Bildelementen, z. B. zwei direkt benachbarten, die Summation entlang der drei Würfelrichtungen ändert, da die beiden vertauschten Elemente mit anderen Kosinus-Termen multipliziert werden. Dies gilt für sämtliche Koeffizienten, die dadurch andere Werte erhalten, und auch über große Distanzen zwischen den Elementen hinweg: vertauscht man im Extremfall die Elemente an zwei gegenüberliegenden Ecken des Würfels, so ändern sich auch in diesem Fall die Werte des kompletten DCT-Würfels, siehe auch Abb. 2. Somit enthält dieser die vollständige globale dreidimensionale Nachbarschaftsinformation. Nach dem besten Wissen der Autoren ist so ein Entmischungsverfahren, welches die gesamte Nachbarschaftsinformation verwendet, in der Literatur noch nicht beschrieben worden. Da die Kosinustransformation eine orthogonale Transformation ist, ändert sich der Wert des Gütemaßes (19) durch ihre Anwendung nicht. Aus diesem Grund stützt sich die Berechnung des DCT-Entmischungsverfahrens nicht auf sämtliche Frequenzkoeffizienten, sondern nur einen gewissen Anteil der betragsgrößten. Dadurch wird die Spärlichkeit des Hyperspektralbilds ausgenutzt und außerdem ergibt sich ein von (19) verschiedenes Gütemaß. Dieses wird außerdem noch dahingehend verändert, dass die ursprüngliche Reinspektrenmatrix M in quadratische Blöcke aufgespalten wird, genauso wie auch die transformierte Bildmatrix in Blöcke aufgeteilt wird. Es werden nun mittels des modifizierten Gütemaßes der Form

(23)Qmod=jNjYAF2

invertierte Teilmatrizen Nj berechnet. Nach erfolgter Optimierung werden diese wiederum blockweise invertiert und zu einer Matrix der alten Größe von M zusammengesetzt. Schlussendlich wird die Gesamtmatrix der inversen 1D-DCT in spektraler Richtung unterzogen und somit eine Schätzung der Reinspektren erhalten. Im Gegensatz zum Ausgangsgütemaß ist das neue Gütemaß (23) konvex, muss aber um Regularisierungsterme zur Vermeidung der Triviallösung N=0 ergänzt werden. Für weitere Details des Verfahrens sowie für Entmischungsergebnisse sei auf [43] verwiesen.

Abb. 2 Datenwürfel eines Bilds aus der Fernerkundung (links) sowie der 3D-DCT-transformierte Würfel mit logarithmischer Grauwertskalierung. Die meiste Signalenergie ist um den Punkt fx=fy=fl=0{f_{x}}={f_{y}}={f_{l}}=0 konzentriert. Durch Vertauschen zweier Bildelemente des ursprünglichen Bilds ändern sich sämtliche Werte des transformierten Würfels.

Abb. 2

Datenwürfel eines Bilds aus der Fernerkundung (links) sowie der 3D-DCT-transformierte Würfel mit logarithmischer Grauwertskalierung. Die meiste Signalenergie ist um den Punkt fx=fy=fl=0 konzentriert. Durch Vertauschen zweier Bildelemente des ursprünglichen Bilds ändern sich sämtliche Werte des transformierten Würfels.

5 Zusammenfassung und Ausblick

In diesem Beitrag wurde der Stand der Technik der hyperspektralen Bildgewinnung und -verarbeitung grob umrissen sowie Verfahren zur Entrauschung und Entmischung unter Einbezug globaler dreidimensionaler Nachbarschaftsinformation vorgestellt. Der neue Entrauschungsalgorithmus erreicht dabei eine ähnliche Ergebnisqualität wie Verfahren aus dem Stand der Technik, allerdings bis zu 25-mal schneller. Generell ist es zu erwarten, dass sich Hyperspektraluntersuchungen aufgrund ihrer Vielseitigkeit und Leistungsfähigkeit in immer mehr Anwendungsgebieten der optischen Inspektion durchsetzen werden. Auch eine Reihe von neuartigen Anwendungsgebieten ist denkbar bzw. sogar schon in der Entwicklung; mehrere Firmen arbeiten bereits an Sensorik und Auswertealgorithmen für mobile Anwendungen. So ließe sich dann mit dem Smartphone der Frischezustand von Lebensmitteln vor dem Kauf in Echtzeit überprüfen.

Literatur

1. AVIRIS Imaging Spectroscopy. [Online]. Available: https://aviris.jpl.nasa.gov/html/aviris.spectroscopy.html. Search in Google Scholar

2. A. F. Goetz, G. Vane, J. E. Solomon und B. N. Rock, „Imaging spectrometry for earth remote sensing“, Science, Vol. 228, Nr. 4704, S. 1147–1153, 1985. Search in Google Scholar

3. A. F. Goetz, „Three decades of hyperspectral remote sensing of the earth: A personal view“, Remote Sensing of Environment, Vol. 113, S. S5–S16, 2009. Search in Google Scholar

4. M. T. Eismann, Hyperspectral remote sensing, Bellingham: SPIE, 2012. Search in Google Scholar

5. E. Ben-Dor, D. Schläpfer, A. J. Plaza und T. Malthus, „Hyperspectral remote sensing“, Airborne Measurements for Environmental Research: Methods and Instruments, S. 413–456, 2013. Search in Google Scholar

6. F. F. Sabins, „Remote sensing for mineral exploration“, Ore Geology Reviews, Vol. 14, Nr. 3–4, S. 157–183, 1999. Search in Google Scholar

7. P. S. Thenkabail und J. G. Lyon, Hyperspectral remote sensing of vegetation, CRC Press, 2016. Search in Google Scholar

8. K. L. Carder, P. Reinersman, R. F. Chen, F. Muller-Karger, C. O. Davis und M. Hamilton, „AVIRIS calibration and application in coastal oceanic environments“, Remote Sensing of Environment, Vol. 44, Nr. 2–3, S. 205–216, 1993. Search in Google Scholar

9. G. Lu und B. Fei, „Medical hyperspectral imaging: a review“, Journal of Biomedical Optics, Vol. 19, Nr. 1, S. 010901-1–010901-23, 2014. Search in Google Scholar

10. H. Grahn und P. Geladi, Techniques and applications of hyperspectral image analysis, John Wiley & Sons, 2007. Search in Google Scholar

11. D.-W. Sun, Hyperspectral imaging for food quality analysis and control. Elsevier, 2010. Search in Google Scholar

12. G. ElMasry, M. Kamruzzaman, D.-W. Sun und P. Allen, „Principles and applications of hyperspectral imaging in quality evaluation of agro-food products: a review“, Critical Reviews in Food Science and Nutrition, Vol. 52, Nr. 11, S. 999–1023, 2012. Search in Google Scholar

13. M. Kopf, R. Gruna, T. Längle und J. Beyerer, „Evaluation and comparison of NIR multi-product calibration methods for Brix prediction“, tm – Technisches Messen, Vol. 85, Nr. 3, S. 184–190, 2018. Search in Google Scholar

14. Hyperspektraler Freifall-Sortierer. [Online]. Available: https://waste-management-world.com/a/best-launches-free-fall-hyperspectral-sorting-machine. Search in Google Scholar

15. Industrielle Hochgeschwindigkeits-Hyperspektralkamera. [Online]. Available: https://www.perception-park.com/hyperspectral-imaging-1000-frames-second. Search in Google Scholar

16. Resonon Hyperspektral-Sortierer. [Online]. Available: https://www.resonon.com/Products/machine_vision.html. Search in Google Scholar

17. J. M. Amigo, H. Babamoradi und S. Elcoroaristizabal, „Hyperspectral image analysis. A tutorial“, Analytica Chimica Acta, Vol. 896, Supplement C, S. 34–51, 2015. Search in Google Scholar

18. Y. Roggo, A. Edmond, P. Chalus und M. Ulmschneider, „Infrared hyperspectral imaging for qualitative analysis of pharmaceutical solid forms“, Analytica Chimica Acta, Vol. 535, Nr. 1, S. 79–87, 2005. Search in Google Scholar

19. A. Gowen, C. O’Donnell, P. Cullen, G. Downey und J. Frias, „Hyperspectral imaging–an emerging process analytical tool for food quality and safety control“, Trends in Food Science & Technology, Vol. 18, Nr. 12, S. 590–598, 2007. Search in Google Scholar

20. R. M. Willett, M. F. Duarte, M. A. Davenport und R. G. Baraniuk, „Sparsity and structure in hyperspectral imaging: Sensing, reconstruction, and target detection“, IEEE Signal Processing Magazine, Vol. 31, Nr. 1, S. 116–126, 2014. Search in Google Scholar

21. S. Bauer und F. Puente León, „Gewinnung und Verarbeitung hyperspektraler Fluoreszenzbilder zur optischen Mineralklassifikation“, tm – Technisches Messen, Vol. 82, Nr. 1, S. 24–33, 2015. Search in Google Scholar

22. C. Chang, Hyperspectral Imaging: Techniques for Spectral Detection and Classification, Springer US, 2013. Search in Google Scholar

23. C. Chang, Hyperspectral Data Processing: Algorithm Design and Analysis, Wiley, 2013. Search in Google Scholar

24. Y. Xie, Y. Qu, D. Tao, W. Wu, Q. Yuan, W. Zhang et al., „Hyperspectral image restoration via iteratively regularized weighted Schatten p-norm minimization“, IEEE Trans. Geoscience and Remote Sensing, Vol. 54, Nr. 8, S. 4642–4659, 2016. Search in Google Scholar

25. W. Krippner, S. Bauer und F. Puente León, „Ortsaufgelöste optische Bestimmung von Materialanteilen in Mischungen“, tm – Technisches Messen, Vol. 84, Nr. 3, S. 207–215, 2017. Search in Google Scholar

26. W. Krippner und F. Puente León, „Bandbereichswahl und Materialanteilsschätzung mithilfe von Spektralfiltern“, tm – Technisches Messen, Vol. 85, Nr. 6, S. 454–467, 2018. Search in Google Scholar

27. W. Krippner, S. Bauer und F. Puente León, „Considering spectral variability for optical material abundance estimation“, tm–Technisches Messen, Vol. 85, Nr. 3, S. 149–158, 2018. Search in Google Scholar

28. L. I. Rudin, S. Osher und E. Fatemi, „Nonlinear total variation based noise removal algorithms“, Physica D: Nonlinear Phenomena, Vol. 60, Nr. 1–4, S. 259–268, 1992. Search in Google Scholar

29. H. Zhang, „Hyperspectral image denoising with cubic total variation model“, ISPRS Annals of Photogrammetry, Remote Sensing and Spatial Information Sciences, Vol. 7, S. 95–98, 2012. Search in Google Scholar

30. Q. Yuan, L. Zhang und H. Shen, „Hyperspectral image denoising employing a spectral–spatial adaptive total variation model“, IEEE Transactions on Geoscience and Remote Sensing, Vol. 50, Nr. 10, S. 3660–3677, 2012. Search in Google Scholar

31. Y. Qian, Y. Shen, M. Ye und Q. Wang, „3-D nonlocal means filter with noise estimation for hyperspectral imagery denoising“, in IEEE International Geoscience and Remote Sensing Symposium (IGARSS), 2012, S. 1345–1348. Search in Google Scholar

32. A. Buades, B. Coll und J.-M. Morel, „A review of image denoising algorithms, with a new one“, Multiscale Modeling & Simulation, Vol. 4, Nr. 2, S. 490–530, 2005. Search in Google Scholar

33. P. Perona und J. Malik, „Scale-space and edge detection using anisotropic diffusion“, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 12, Nr. 7, S. 629–639, 1990. Search in Google Scholar

34. Y. Wang, R. Niu und X. Yu, „Anisotropic diffusion for hyperspectral imagery enhancement“, IEEE Sensors Journal, Vol. 10, Nr. 3, S. 469–477, 2010. Search in Google Scholar

35. W. He, H. Zhang, L. Zhang und H. Shen, „Hyperspectral image denoising via noise-adjusted iterative low-rank matrix approximation“, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 8, Nr. 6, S. 3050–3061, 2015. Search in Google Scholar

36. H. Zhang, W. He, L. Zhang, H. Shen und Q. Yuan, „Hyperspectral image restoration using low-rank matrix recovery“, IEEE Transactions on Geoscience and Remote Sensing, Vol. 52, Nr. 8, S. 4729–4743, 2014. Search in Google Scholar

37. Y.-Q. Zhao und J. Yang, „Hyperspectral image denoising via sparse representation and low-rank constraint“, IEEE Transactions on Geoscience and Remote Sensing, Vol. 53, Nr. 1, S. 296–308, 2015. Search in Google Scholar

38. M. Maggioni, V. Katkovnik, K. Egiazarian und A. Foi, „Nonlocal transform-domain filter for volumetric data denoising and reconstruction“, IEEE Transactions on Image Processing, Vol. 22, Nr. 1, S. 119–133, 2013. Search in Google Scholar

39. S. Bauer, P. Mackens und F. Puente León, „Entrauschungsalgorithmus für Hyperspektralbilder mit Poisson-Statistik“, in XXIX. Messtechnisches Symposium 2015, T. Fröhlich and E. Manske, Hrsg. Berlin: De Gruyter Oldenbourg, 2015, S. 91–98. Search in Google Scholar

40. European Machine Vision Association, EMVA 1288 standard, Release 3.1. [Online]. Available: http://www.emva.org/wp-content/uploads/EMVA1288-3.1a.pdf. Search in Google Scholar

41. M. Hirsch, R. J. Wareham, M. L. Martin-Fernandez, M. P. Hobson und D. J. Rolfe, „A stochastic model for electron multiplication charge-coupled devices–from theory to practice“, PloS one, Vol. 8, Nr. 1, 2013. Search in Google Scholar

42. T. Rudas, Handbook of Probability: Theory and Applications, SAGE Publications, 2008. Search in Google Scholar

43. S. Bauer, „Hyperspectral image unmixing incorporating adjacency information“, Dissertation, Karlsruhe, 2018. Search in Google Scholar

44. MultiSpec–Hyperspectral images web page. [Online]. Available: https://engineering.purdue.edu/~biehl/MultiSpec/hyperspectral.html. Search in Google Scholar

45. K. Dabov, A. Foi, V. Katkovnik und K. Egiazarian, „Image denoising by sparse 3-D transform-domain collaborative filtering“, IEEE Transactions on Image Processing, Vol. 16, Nr. 8, S. 2080–2095, 2007. Search in Google Scholar

46. Image and video denoising by sparse 3D transform-domain collaborative filtering web page. [Online]. Available: http://www.cs.tut.fi/~foi/GCF-BM3D/. Search in Google Scholar

47. A. Cichocki, R. Zdunek, A. Phan und S. Amari, Nonnegative Matrix and Tensor Factorizations: Applications to Exploratory Multi-way Data Analysis and Blind Source Separation, Wiley, 2009. Search in Google Scholar

48. R. Heylen, M. Parente und P. Gader, „A review of nonlinear hyperspectral unmixing methods“, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 7, Nr. 6, S. 1844–1868, 2014. Search in Google Scholar

49. J. M. Bioucas-Dias, A. Plaza, N. Dobigeon, M. Parente, Q. Du, P. Gader und J. Chanussot, „Hyperspectral unmixing overview: Geometrical, statistical, and sparse regression-based approaches“, IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, Vol. 5, Nr. 2, S. 354–379, 2012. Search in Google Scholar

50. L. Drumetz, M.-A. Veganzones, S. Henrot, R. Phlypo, J. Chanussot und C. Jutten, „Blind hyperspectral unmixing using an extended linear mixing model to address spectral variability“, IEEE Transactions on Image Processing, Vol. 25, Nr. 8, S. 3890–3905, 2016. Search in Google Scholar

51. A. Zare und K. Ho, „Endmember variability in hyperspectral analysis: Addressing spectral variability during spectral unmixing“, IEEE Signal Processing Magazine, Vol. 31, Nr. 1, S. 95–104, 2014. Search in Google Scholar

52. A. Zymnis, S.-J. Kim, J. Skaf, M. Parente und S. Boyd, „Hyperspectral image unmixing via alternating projected subgradients“, in Conference Record of the Forty-First Asilomar Conference on Signals, Systems and Computers, ACSSC, 2007, S. 1164–1168. Search in Google Scholar

53. C. Shi und L. Wang, „Incorporating spatial information in spectral unmixing: A review“, Remote Sensing of Environment, Vol. 149, S. 70–87, 2014. Search in Google Scholar

54. S. Bauer, J. Stefan, M. Michelsburg, T. Längle und F. Puente León, „Robustness improvement of hyperspectral image unmixing by spatial second-order regularization“, IEEE Transactions on Image Processing, Vol. 23, Nr. 12, S. 5209–5221, 2014. Search in Google Scholar

55. S. Bauer, F. Neumann und F. Puente León, „Spatial regularization for the unmixing of hyperspectral images“, in Automated Visual Inspection and Machine Vision, Ser. Proceedings of SPIE, Vol. 9530, 2015. Search in Google Scholar

56. S. Bauer, E. Winterbauer und F. Puente León, „Accelerating spectral unmixing by using clustered images“, in IEEE International Conference on Image Processing (ICIP), Beijing, China, 2017. Search in Google Scholar

57. S. Bauer und F. Puente León, „Using image pyramids for the acceleration of spectral unmixing based on nonnegative matrix factorization“, in: 8th IEEE Workshop on Hyperspectral Image and Signal Processing: Evolution in Remote Sensing (WHISPERS), Los Angeles, CA, S. 733–737, 2016. Search in Google Scholar

58. Q. Zhang, H. Wang, R. Plemmons und V. Paul Pauca, „Spectral unmixing using nonnegative tensor factorization“, in Proceedings of the 45th annual southeast regional conference. ACM, 2007, S. 531–532. Search in Google Scholar

Erhalten: 2019-01-04
Angenommen: 2019-02-19
Online erschienen: 2019-03-23
Erschienen im Druck: 2019-04-04

© 2019 Walter de Gruyter GmbH, Berlin/Boston