Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
ASSEMBLY, USE OF AN ASSEMBLY, AND METHOD FOR ASCERTAINING AT LEAST ONE PARAMETER
Document Type and Number:
WIPO Patent Application WO/2024/100116
Kind Code:
A1
Abstract:
The invention relates to an assembly (100) for ascertaining at least one parameter for determining components of a global irradiance, said assembly comprising an evaluation and control device (110) and a camera assembly (120) having at least one camera, the at least one camera being fixed at a predefined distance from an earth surface (20) at least while ascertaining the parameter, the camera assembly (120) being designed to capture camera data in a spatial field of view of approximately 360° around the camera assembly (120), the camera data being suitable for deriving information concerning solar radiation and/or the position and/or properties of clouds (12). The invention also relates to: the use of such an assembly; a method for ascertaining at least one parameter for determining at least one component of a global irradiance; and a computer programme.

Inventors:
BLUM NIKLAS (ES)
WILBERT STEFAN (ES)
NOURI BIJAN (ES)
Application Number:
PCT/EP2023/081145
Publication Date:
May 16, 2024
Filing Date:
November 08, 2023
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
DEUTSCH ZENTR LUFT & RAUMFAHRT (DE)
International Classes:
G01J1/42; G01W1/02
Foreign References:
US20190204405A12019-07-04
US10989839B12021-04-27
DE102020111590A12021-10-28
Other References:
KUHN, P. ET AL.: "Benchmarking three low-cost, low-maintenance cloud height measurement systems and ECMWF cloud heights against a ceilometer - ScienceDirect", 1 July 2018 (2018-07-01), pages 1 - 24, XP093120906, Retrieved from the Internet [retrieved on 20240118]
GAO WENLIANG: "Autonomous Aerial Robot Using Dual-fisheye System", THESIS, 2 August 2018 (2018-08-02), XP093121139, Retrieved from the Internet
ARTIKEL KUHN, P. ET AL.: "Benchmarking three low-cost, low-maintenance cloud height measurement systems and ECMWF cloud heights against a ceilometer", SOLAR ENERGY, vol. 168, 2018, pages 140 - 152
VERÖFFENTLICHUNG: "Shadow camera system for the generation of solar irradiance maps", SOLAR ENERGY, vol. 157, 2017, pages 157 - 170, XP085268553, DOI: 10.1016/j.solener.2017.05.074
Attorney, Agent or Firm:
KAUFMANN, Ursula (DE)
Download PDF:
Claims:
Patentansprüche

1. Anordnung (100) zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl, welche eine Auswerte- und Steuereinrichtung (110) sowie eine Kameraanordnung (120) mit wenigstens einer Kamera (122, 124) umfasst, wobei die wenigstens eine Kamera (122, 124) wenigstens bei der Ermittlung des Parameters mit einem vorgegebenen Abstand (A) zu einer Erdoberfläche (20) fixiert ist, wobei die Kameraanordnung (120) ausgebildet ist, Kameradaten KDH, KDE in einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) zu erfassen, wobei die Kameradaten KDH, KDE geeignet sind, Informationen zur Solarstrahlung und/oder zur Position (WP) und/oder zu Eigenschaften von Wolken (12) abzuleiten.

2. Anordnung nach Anspruch 1 , wobei wenigstens eine erste Kamera (122) Kameradaten in einem ersten Teilsichtfeld erfasst und wenigstens eine zweite Kamera (124) Kameradaten in einem zweiten Teilsichtfeld erfasst, wobei sich die beiden Teilsichtfelder der Kameras (122, 124) zu einem Sichtfeld von zumindest annähernd 360° ergänzen, insbesondere wobei wenigstens die erste Kamera (122) als Himmelskamera (123) Kameradaten KDH im ersten Teilsichtfeld erfasst, das in Richtung Himmel (10) ausgerichtet ist und ein oberes Teilsichtfeld bildet, und die wenigstens zweite Kamera (124) als Bodenkamera (125) Kameradaten KDE im zweiten Teilsichtfeld erfasst, das in Richtung Erdoberfläche (20) ausgerichtet ist und ein unteres Teilsichtfeld bildet, insbesondere wobei die Kameras (122, 124) jeweils als Fischaugenkamera ausgeführt sind, oder wobei eine 360°-Kamera mit einem räumlichem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) Kameradaten KDH in einem ersten Teilsichtfeld erfasst und Kameradaten KDE in einem zweiten Teilsichtfeld erfasst, insbesondere wobei das erste Teilsichtfeld ein in Richtung Himmel (10) ausgerichtetes oberes Teilsichtfeld bildet und das zweite Teilsichtfeld ein in Richtung Erdoberfläche (20) ausgerichtetes unteres Teilsichtfeld bildet. Anordnung nach Anspruch 1 oder 2, wobei sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) aus dem räumlichen ersten Teilsichtfeld und dem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung (120) zusammensetzt, wobei die Teilsichtfelder übereinander angeordnet sind, insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) im Wesentlichen in einer vertikalen Richtung (31 ) ausgerichtet, oder insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) mit einem Kippwinkel zu einer vertikalen Richtung (31 ) ausgerichtet ist. Anordnung nach einem der vorhergehenden Ansprüche, wobei die Auswerte- und Steuereinrichtung (110) aus den erfassten Kameradaten KDH, KDE dem Himmel (10) zugeordnete Kameradaten KDH entnimmt und aus diesen dem Himmel (10) zugeordneten Kameradaten KDH wenigstens einen der folgenden Parameter ermittelt:

(i) eine direkte Strahlung DNI und/oder

(ii) eine diffuse Strahlung Diffl und/oder (iii) eine globale Bestrahlungsstärke Gl und/oder

(iv) wenigstens eine Position von Wolkenmerkmalen und/oder

(v) von Wolken bedeckte Himmelsbereiche und/oder

(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild. Anordnung nach einem der vorhergehenden Ansprüche, wobei die Auswerte- und Steuereinrichtung (110) aus den erfassten Kameradaten KDH, KDE der Erdoberfläche (20) zugeordnete Kameradaten KDE entnimmt, und aus diesen der Erdoberfläche (20) zugeordneten Kameradaten KDE wenigstens einen der folgenden Parameter ermittelt:

(i) eine an der Erdoberfläche (20) reflektierte Strahlung ERS und/oder

(ii) eine Albedo AL der Erdoberfläche (20) und/oder

(iii) wenigstens eine Wolkenschattenposition SP und/oder

(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20). Anordnung nach einem der Ansprüche 4 oder 5, wobei die Auswerte- und Steuereinrichtung (110) aus der Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) und der Winkelgeschwindigkeit vplx/s von wenigstens einer Wolke (12) im Kamerabild eine Höhe (H1 , H2) der Wolken (12) ermittelt, insbesondere wobei die wenigstens eine Auswerte- und Steuereinrichtung (110) mit der Höhe (H1 , H2) der Wolken und der Wolkengeschwindigkeit vm/s über der Erdoberfläche (20) eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiet ermittelt. 7. Anordnung nach einem der Ansprüche 4 bis 6, wobei die wenigstens eine Auswerte- und Steuereinrichtung (110) die Geschwindigkeit vm/s von Wolken (12) über der Erdoberfläche (20) und/oder die Winkelgeschwindigkeit vpix/s von Wolken (12) im Kamerabild zeitlich und räumlich extrapoliert.

8. Anordnung nach einem der Ansprüche 4 bis 7, wobei die wenigstens eine Auswerte- und Steuereinrichtung (110) aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens einen aktuellen und/oder zukünftigen Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst bestimmt.

9. Anordnung nach Anspruch 8, wobei wenigstens eine Auswerte- und Steuereinrichtung (110) die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten, insbesondere beliebig orientierten, Oberfläche bestimmt.

10. Verwendung einer Anordnung (100) nach einem der vorhergehenden Ansprüche zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl, wobei Kameradaten KDH, KDE in einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) erfasst werden, wobei aus den Kameradaten KDH, KDE Informationen zur Solarstrahlung und/ oder zur Position und/oder zu Eigenschaften von Wolken abgeleitet werden.

11 . Verwendung nach Anspruch 10, wobei mit wenigstens einer ersten Kamera (122) Kameradaten in einem ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera (124) Kameradaten in einem zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras (122, 124) zu einem Sichtfeld von zumindest annähernd 360° ergänzen, insbesondere wobei mit wenigstens einer ersten Kamera (122) als Himmelskamera (123) Kameradaten KDH im ersten Teilsichtfeld erfasst werden, das in Richtung Himmel (10) ausgerichtet ist und ein oberes Teilsichtfeld bildet und mit wenigstens einer zweiten Kamera (124) als Bodenkamera (125) Kameradaten KDE im zweiten Teilsichtfeld erfasst werden, das in Richtung Erdoberfläche (20) ausgerichtet ist und ein unteres Teilsichtfeld bildet, oder wobei mit einer 360°-Kamera mit einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) Kameradaten KDH in einem ersten Teilsichtfeld und Kameradaten KDE in einem zweiten Teilsichtfeld erfasst werden, insbesondere wobei das erste Teilsichtfeld ein in Richtung Himmel (10) ausgerichtetes oberes Teilsichtfeld bildet und das zweite Teilsichtfeld ein in Richtung der Erdoberfläche (20) ausgerichtetes unteres Teilsichtfeld bildet.

12. Verwendung nach Anspruch 10 oder 11 , wobei sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) aus dem räumlichen ersten Teilsichtfeld und dem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung (120) zusammensetzt, wobei die Teilsichtfelder übereinander angeordnet sind, insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) im Wesentlichen in einer vertikalen Richtung (31 ) ausgerichtet, oder insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) mit einem Kippwinkel zu einer vertikalen Richtung (31 ) ausgerichtet ist. Verwendung nach einem der Ansprüche 10 bis 12, wobei aus den erfassten Kameradaten KDH, KDE dem Himmel (10) zugeordnete Kameradaten KDH entnommen werden, und aus diesen dem Himmel (10) zugeordneten Kameradaten KDH wenigstens einer der folgenden Parameter:

(i) eine direkte Strahlung DNI und/oder

(ii) eine diffuse Strahlung Diffl und/oder

(iii) eine globale Bestrahlungsstärke Gl und/oder

(iv) wenigstens eine Position von Wolkenmerkmalen und/oder

(v) von Wolken bedeckte Himmelsbereiche und/oder

(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild ermittelt wird. Verwendung nach einem der Ansprüche 10 bis 13, wobei aus den erfassten Kameradaten KDH, KDE der Erdoberfläche (20) zugeordnete Kameradaten KDE entnommen werden, und aus diesen der Erdoberfläche (20) zugeordneten Kameradaten KDE wenigstens einer der folgenden Parameter (i) eine an der Erdoberfläche (20) reflektierte Strahlung ERS und/oder

(ii) eine Albedo AL der Erdoberfläche (20) und/oder

(iii) wenigstens eine Wolkenschattenposition SP und/oder

(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) ermittelt wird.

15. Verwendung nach Anspruch 14, wobei aus der Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) und der Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild eine Höhe (H1 , H2) der Wolken (12) ermittelt wird, insbesondere wobei mit der Höhe (H1 , H2) der Wolken und der Wolkengeschwindigkeit vm/s über der Erdoberfläche (20) eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung und/oder die zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiets ermittelt wird.

16. Verwendung nach einem der Ansprüche 14 oder 15, wobei die Geschwindigkeit vm/s von Wolken (12) über der Erdoberfläche (20) und/oder die Winkelgeschwindigkeit vpix/s von Wolken (12) im Kamerabild zeitlich und räumlich extrapoliert werden.

17. Verwendung nach einem der Ansprüche 10 bis 16, wobei aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst bestimmt wird.

18. Verwendung nach Anspruch 17, wobei die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten, insbesondere beliebig orientierten, Oberfläche bestimmt wird. Verfahren (200), insbesondere computerimplementiertes Verfahren, zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl, wobei Kameradaten KDH, KDE an einem gemeinsamen Standort in einem räumlichen Sichtfeld von zumindest annähernd 360° um eine Kameraanordnung 120 erfasst werden, wobei aus den Kameradaten KDH, KDE Informationen zur Solarstrahlung und/ oder zu Position (WP) und/oder Eigenschaften von Wolken (12) abgeleitet werden. Verfahren nach Anspruchl 9, wobei mit wenigstens einer ersten Kamera (122) Kameradaten in einem ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera (124) Kameradaten in einem zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras (122, 124) zu einem Sichtfeld von zumindest annähernd 360° ergänzen, insbesondere wobei mit wenigstens einer ersten Kamera (122) als Himmelskamera (123) Kameradaten KDH im ersten Teilsichtfeld erfasst werden, das in diesem Fall in Richtung Himmel (10) ausgerichtet ist und ein oberes Teilsichtfeld bildet, und mit wenigstens einer zweiten Kamera (124) als Bodenkamera (125) Kameradaten KDE im zweiten Teilsichtfeld erfasst werden, das in diesem Fall in Richtung Erdoberfläche (20) ausgerichtet ist und ein unteres Teilsichtfeld bildet, oder wobei mit einer 360°-Kamera mit Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) Kameradaten KDH in einem ersten Teilsichtfeld erfasst und Kameradaten KDE in einem zweiten Teilsichtfeld erfasst werden, insbesondere wobei das erste Teilsichtfeld ein in Richtung Himmel (10) ausgerichtetes oberes Teilsichtfeld bildet und das zweite Teilsichtfeld ein in Richtung der Erdoberfläche (20) ausgerichtetes unteres Teilsichtfeld bildet. Verfahren nach Anspruch 19 oder 20, wobei sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung (120) aus dem räumlichen ersten Teilsichtfeld und dem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung (120) zusammensetzt, wobei die Teilsichtfelder übereinander angeordnet sind, insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) im Wesentlichen in einer vertikalen Richtung (31 ) ausgerichtet, oder insbesondere wobei die Teilsichtfelder entlang wenigstens einer Achse (30) angeordnet sind oder entlang zweier Achsen, die annähernd parallel mit geringem Abstand zueinander, übereinander angeordnet sind, wobei die wenigstens eine Achse (30) mit einem Kippwinkel zu einer vertikalen Richtung (31 ) ausgerichtet ist. Verfahren nach einem der Ansprüche 19 bis 21 , wobei aus den erfassten Kameradaten KDH, KDE dem Himmel (10) zugeordnete Kameradaten KDH entnommen werden und aus diesen dem Himmel (10) zugeordneten Kameradaten KDH wenigstens einer der folgenden Parameter

(i) eine direkte Strahlung DNI und/oder

(ii) eine diffuse Strahlung Diffl und/oder

(iii) eine globale Bestrahlungsstärke Gl und/oder

(iv) von Wolken bedeckte Himmelsbereiche und/oder

(v) wenigstens eine Wolkenposition WP und/oder

(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild ermittelt wird.

23. Verfahren nach einem der Ansprüche 19 bis 22, wobei aus den erfassten Kameradaten KDH, KDE der Erdoberfläche (20) zugeordnete Kameradaten KDH entnommen, und aus diesen der Erdoberfläche (20) zugeordneten Kameradaten KDH wenigstens einer der folgenden Parameter:

(i) eine an der Erdoberfläche (20) reflektierte Strahlung ERS und/oder

(ii) eine Albedo AL der Erdoberfläche (20) und/oder

(iii) wenigstens eine Wolkenschattenposition SP und/oder

(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) ermittelt wird.

24. Verfahren nach Anspruch 23, wobei aus der Geschwindigkeit vm/s von wenigstens einer Wolke (12) über der Erdoberfläche (20) und der Winkelgeschwindigkeit vpix/s von wenigstens einer Wolke (12) im Kamerabild eine Höhe (H1 , H2) der Wolken (12) ermittelt wird, insbesondere wobei mit der Höhe (H1 , H2) der Wolken (12) und der Wolkengeschwindigkeit vm/s über der Erdoberfläche (20) eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung und/oder die zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiets ermittelt wird.

25. Verfahren nach einem der Ansprüche 23 bis 24, wobei die Geschwindigkeit vm/s von Wolken (12) über der Erdoberfläche (20) und/ oder die Winkelgeschwindigkeit vpix/s von Wolken (12) im Kamerabild zeitlich und räumlich extrapoliert werden.

26. Verfahren nach einem der Ansprüche 19 bis 25, wobei aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst ermittelt wird. Verfahren nach Anspruch 26, wobei die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten, insbesondere beliebig orientierten, Oberfläche ermittelt wird. Computerprogramm oder Computerprogrammprodukt, umfassend Befehle, die bewirken, dass eine Anordnung (100) nach einem der Ansprüche 1-9 ein Verfahren (200) zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl nach einem der Ansprüche 19 bis 27 durchzuführen. Computerprogramm oder Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren (200) zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl nach einem der Ansprüche 19 bis 27 durchzuführen, umfassend

Erfassen von Kameradaten KDH, KDE von einer Kameraanordnung (120) in einem kugelförmigen Sichtfeld um die Kameraanordnung 120,

Ableiten von Informationen zur Solarstrahlung und/oder zur Position (WP) und/oder Eigenschaften von Wolken (12) aus den Kameradaten KDH, KDE.

Description:
Beschreibung

Titel

Anordnung, Verwendung einer Anordnung und Verfahren zur Ermittlung wenigstens eines Parameters

Stand der Technik

Die Erfindung betrifft eine Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke, eine Verwendung einer Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke und ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke.

Wolkenkameras und Schattenkameras sowie korrespondierende Anordnungen und deren Anwendung sind unter anderem aus dem Artikel Kuhn, P. et al. "Benchmarking three low-cost, low-maintenance cloud height measurement systems and ECMWF cloud heights against a ceilometer", Solar Energy, Vol. 168, 2018, S. 140-152, DOI:

10.1016/j.solener.2018.02.050 bekannt. Darin ist eine Anordnung mit mehreren Kameras beschrieben, bei der eine Kamera ein in den Himmel gerichtetes Blickfeld aufweist und in der Lage ist, Kameradaten des Himmels aufzunehmen. Eine mehrere hundert Meter davon entfernt dazu angeordnete Schattenkamera kann Kameradaten der Erde aufnehmen. Hierbei können Wolkenkameraanordnungen zur automatisierten Erkennung eines Bedeckungsgrades eines Himmels und zur Erstellung von Kürzestfrist-Vorhersagen der Solarstrahlung z.B. zum effizienteren Betrieb von Stromversorgungs-Systemen bestehend aus Solaranlagen und Diesel- Aggregaten oder Batteriespeichern verwendet werden.

Diese Wolkenkamerabasierten Vorhersagesysteme erkennen in der Regel Wolken in den Kamerabildern. Durch die Daten wenigstens einer zweiten Wolkenkamera, kann die Höhe und Geschwindigkeit der Wolken und daher die zukünftige Position der Wolken bestimmt werden. Aus der Wolkenposition kann eine Vorhersage für die Beschattung bestimmter Gebiete gemacht werden.

Schattenkameraanordnungen sind üblicherweise an hohen Türmen oder Bergrücken mit Blick auf das überwachte Gebiet installiert. Durch Schattenkameras können hochauflösende Karten von Solarstrahlung um den Punkt der Installation der Schattenkameras erstellt werden. Dabei werden Schattenkameras mit einem eher engen Blickwinkel verwendet. Durch den Vergleich der Position von Wolkenschatten in Bildern zwischen verschiedenen Zeitstempeln, können diese Systeme die Geschwindigkeit von Wolken über dem Erdboden bestimmen.

Monitoring-Systeme für Solarkraftwerke bzw. Messsysteme zur Bestimmung der solaren Ressource am geplanten Standort eines Solarkraftwerks sind häufig mit zum Himmel gerichteten Pyranometern und in manchen Fällen zusätzlich mit zum Erdboden gerichteten Pyranometern ausgestattet, um jeweils die vom Himmel stammende beziehungsweise die vom Erdboden reflektierte Strahlung zu messen. Diese Messungen werden verwendet, um die Performance eines Solarkraftwerks auszuwerten beziehungsweise um die solare Ressource am Standort zu beurteilen. Ferner ist aus der Veröffentlichung von „Shadow camera system for the generation of solar irradiance maps”, Solar Energy, 157, 2017, 157-170. DOI: 10.1016/j.solener.2017.05.074 eine Anordnung mit mehreren Kameras offenbart, wobei die Kameraanordnung bestehend aus sechs Kameras Bilder des Bodens von einem hohen Turm aus aufnimmt.

Offenbarung der Erfindung

Die Aufgabe der Erfindung ist es, eine kostengünstige Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke bereitzustellen, wobei sich der Messaufbau an einem Ort befindet.

Eine weitere Aufgabe der Erfindung ist es, eine Verwendung einer solchen Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke bereitzustellen, welche einen oder mehrere Parameter kostengünstig und/oder zuverlässig ermittelt.

Eine weitere Aufgabe der Erfindung ist es, ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke bereitzustellen, welches den wenigstens einen Parameter kostengünstig und/oder zuverlässig ermittelt.

Diese Aufgaben werden durch die Merkmale der unabhängigen Ansprüche gelöst. Günstige Ausgestaltungen und Vorteile der Erfindung ergeben sich aus den weiteren Ansprüchen, der Beschreibung und der Zeichnung. Es folgen Begriffsdefinitionen, welche für die erfindungsgemäße Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren zur Ermittlung wenigstens eines Parameters gelten.

Unter einer Auswerte- und Steuereinrichtung wird im Folgenden eine physische Baugruppe oder eine logische Gruppe von zusammenwirkenden Hardware- und/oder Softwarekomponenten oder ein Prozessor verstanden. Die Auswerte- und Steuereinrichtung umfasst hierbei wenigstens einen Signaleingang zum Empfangen von Kameradaten und wenigstens einen Signalausgang zum Ausgeben von Messergebnissen und/oder Kameradaten.

Wenigstens eine Recheneinheit kann durch eine entsprechende Programmierung die empfangen Kameradaten auswerten und den wenigstens einen Parameter und/oder andere Messergebnisse berechnen. Hierbei können mehrere Recheneinheiten vorgesehen sein, welche jeweils einzelne oder mehrere Verfahrensschritte und/oder einzelne oder mehrere Auswertungsschritte ausführen. Zusätzlich oder alternativ können mehrere Recheneinheiten zum Ermitteln oder Bestimmen eines oder mehrerer Parameter vorgesehen sein. Diese Recheneinheiten oder weitere Recheneinheiten können eine oder mehrere Komponenten der globalen Bestrahlungsstärke bestimmen. Die Berechnungen und/oder Bestimmungen und/oder Ermittlungen können zentral an einem Ort erfolgen oder dezentral an verschiedenen Orten erfolgen. Wenigstens eine Speichereinheit kann Zwischenergebnisse und/oder Endergebnisse und/oder ermittelte Werte der Parameter und/oder wenigstens eine Komponente der globalen Bestrahlungsstärke speichern. Die Kameradaten können über ein Kabel oder kabellos zum Signaleingang oder vom Signalausgang versendet werden. Bei der erfindungsgemäßen Anordnung und der erfindungsgemäßen Verwendung der Anordnung kann eine Auswerte- und Steuereinrichtung oder können mehrere Auswerte- und Steuereinrichtungen an der Auswertung und Berechnung beteiligt sein. Die Auswertung kann zusätzlich oder alternativ zumindest teilweise auf einem Server implementiert sein. Die Auswertung kann vorteilhaft mit einem entsprochenen Computerprogramm durchgeführt werden, das zur Durchführung der Berechnungsschritte ausgebildet ist. Ebenso kann ein Computerprogrammprodukt vorgesehen sein, auf dem ein Computerprogramm gespeichert ist, das zur Durchführung der Berechnungsschritte ausgebildet ist.

Die Auswerte- und Steuereinrichtung kann als physische Baugruppe verstanden werden. Die Auswerte- und Steuereinrichtung könnte aber auch einfach auf einem Server implementiert werden. Dann ist diese Baugruppe ein Computerprogramm und nicht physisch vorhanden. Die Auswerte- und Steuereinrichtung kann Daten aus einer Cloud entnehmen oder in einer Cloud speichern.

Unter einer Kameraanordnung kann im Folgenden eine Kameraanordnung verstanden werden, welche eine Kamera umfasst, welche ein räumliches Sichtfeld von 360° oder zumindest annähernd 360° um die Kameraanordnung erfasst. Alternativ kann die Kameraanordnung mehrere Kameras umfassen, welche zusammen das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfassen. Die Kameraanordnung kann eine erste Kamera und eine zweite Kamera aufweisen. Günstigerweise setzt sich das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung aus einem räumlichen ersten Teilsichtfeld und einem räumlichen zweiten Teilsichtfeld von jeweils 180° oder zumindest annähernd 180° um die Kameraanordnung zusammen. Die Teilsichtfelder können entlang einer gemeinsamen Achse angeordnet sein, insbesondere kann die gemeinsame Achse im Wesentlichen in einer vertikalen Richtung ausgerichtet sein, oder die gemeinsame Achse kann mit einem Kippwinkel zu der vertikalen Richtung ausgerichtet sein.

Das räumliche Sichtfeld von zumindest annähernd 360° kann günstigerweise ein dreidimensionales Sichtfeld sein. Das räumliche Teilsichtfeld von zumindest annähernd 180° kann ein dreidimensionales Teilsichtfeld sein.

Die Kameraanordnung kann die gemeinsame Achse aufweisen. Die gemeinsame Achse kann sich durch die Kamera oder die mehreren Kameras der Kameraanordnung erstrecken. Die gemeinsame Achse kann im Wesentlichen in vertikaler Richtung ausgerichtet sein und somit eine im Wesentlichen vertikale Achse ausbilden oder mit einem Kippwinkel zu der vertikalen Richtung gekippt sein und somit eine schräge Achse ausbilden.

Alternativ kann jede der Kameras an einer separaten Achse angeordnet sein. Diese können im Wesentlichen parallel zueinander oder gegeneinander geneigt sein.

Die nach unten schauende Kamera kann vorteilhafterweise den Boden unterhalb der nach oben schauenden Kamera erfassen. Die Kameras können in einer gemeinsamen Halteanordnung angeordnet sein oder in separaten Haltenordnungen. Die eine oder mehreren Achsen können im Wesentlichen in einer vertikalen Richtung ausgerichtet sein. Alternativ können die eine oder mehrere Achsen mit einem Kippwinkel zu einer vertikalen Richtung ausgerichtet sein.

Ein geringer Abstand der Achsen ermöglicht es, dass beide Kameras immer annähernd gleichzeitig von durchziehenden Wolken verschattet werden. Vorteilhaft ist ein geringer Abstand zwischen den Achsen von wenigen Metern, insbesondere von höchstens etwa 10 m.

Weiterhin lässt sich aus den Teilsichtfeldern der Kameras nur dann mit ausreichend hoher Genauigkeit ein Sichtfeld von wenigstens annähernd 360° rekonstruieren, wenn die beiden Kameras in einem geringen Abstand zueinander angeordnet sind. Auch zu diesem Zweck sollte ein Abstand von höchstens etwa 10 m nicht überschritten werden. Damit kann vermieden werden, dass bei einem zu großen Abstand die Wolkenschatten im Bild der zum Boden schauenden Kamera nicht mehr hinreichend genau mit den Wolken im Bild der zum Himmel schauenden Kamera korrespondieren. Dieser Effekt kann vor allem bei sehr niedrigen Wolken in wenigen hundert Metern Höhe relevant sein.

Das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung kann sich in zwei entgegengesetzte Richtungen erstrecken und insgesamt in Summe das räumliche Sichtfeld von zumindest annähernd 360° realisieren.

Weist die Kameraanordnung mehrere Kameras auf, können die erste Kamera und die zweite Kamera die gemeinsame Achse ausbilden, wobei die gemeinsame Achse im Wesentlichen in vertikaler Richtung ausgerichtet sein und die im Wesentlichen vertikale Achse ausbilden kann oder die mit einem Kippwinkel zu der vertikalen Achse gekippten Achse sein kann, die die schräge Achse ausbilden kann. Sind die Kameras auf einer gemeinsamen Achse angeordnet, kann sich das Sichtfeld der ersten Kamera entlang der gemeinsamen Achse nach oben erstrecken und das Sichtfeld der zweiten Kamera kann sich nach unten entlang der gemeinsamen Achse erstrecken. Alternativ können die Teilsichtfelder sich entlang mehrerer Achsen, insbesondere zweier Achsen, erstrecken. Diese Achsen können im Wesentlichen parallel zueinander oder gegeneinander geneigt sein. Die eine oder mehreren Achsen können im Wesentlichen in einer vertikalen Richtung ausgerichtet sein. Alternativ können die eine oder mehrere Achsen mit einem Kippwinkel zu einer vertikalen Richtung ausgerichtet sein.

Insbesondere kann die eine oder die mehreren Achsen so angeordnet sein, dass die nach unten schauende Kamera den Boden unterhalb der nach oben schauenden Kamera erfassen kann.

Die beiden Achsen sind vorteilhaft mit geringem Abstand zueinander angeordnet. Ein geringer Abstand der Achsen ermöglicht es, dass beide Kameras immer annähernd gleichzeitig von durchziehenden Wolken verschaffet werden. Vorteilhaft ist ein geringer Abstand zwischen den Achsen von wenigen Metern, insbesondere von höchstens etwa 10 m.

Weiterhin lässt sich aus den Teilsichtfeldern der Kameras nur dann mit ausreichend hoher Genauigkeit ein Sichtfeld von annähernd 360° rekonstruieren, wenn die beiden Kameras in einem geringen Abstand zueinander angeordnet sind. Auch zu diesem Zweck sollte ein Abstand von höchstens etwa 10 m nicht überschritten werden. Damit kann vermieden werden, dass bei einem zu großen Abstand die Wolkenschatten im Bild der zum Boden schauenden Kamera nicht mehr hinreichend genau mit den Wolken im Bild der zum Himmel schauenden Kamera korrespondieren. Dieser Effekt kann vor allem bei sehr niedrigen Wolken in wenigen hundert Metern Höhe relevant sein. Somit kann mit zwei Kameras, die entlang derselben gemeinsamen Achse angeordnet sind, das räumliche Sichtfeld von zumindest annähernd 360° jeweils ein räumliches Teilsichtfeld von zumindest annähernd 180° ausgebildet werden, welches das räumliche Sichtfeld von annähernd 360° ausbildet. Das räumliche Teilsichtfeld von zumindest annähernd 180° bildet jeweils ein halbkugelförmiges oder zumindest annähernd halbkugelförmiges Sichtfeld aus.

Unter einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung wird im Folgenden ein kugelförmiges oder zumindest annähernd kugelförmiges Sichtfeld um einen Mittelpunkt verstanden.

Im folgenden ist halbkugelförmig so zu verstehen, dass zumindest annähernd halbkugelförmig eingeschlossen ist. Ebenso ist kugelförmig so zu verstehen, dass zumindest annähernd kugelförmig eingeschlossen ist.

Die Kamera kann bzw. die Kameras können in diesem Mittelpunkt angeordnet sein. Das räumliche Sichtfeld von zumindest annähernd 360° kann in mehrere Segmente unterteilt werden. Der Mittelpunkt kann vorteilhaft auf der gemeinsamen Achse liegen, die als im Wesentlichen vertikale Achse oder schräge Achse ausgebildet sein kann. Dadurch können Kameradaten eines Segments unabhängig von Kameradaten anderer Segmente ausgewertet werden.

Alternativ kann das räumliche Sichtfeld von zumindest annähernd 360° aus Teilsichtfeldern der beiden Kameras von zumindest annährend 180° rekonstruiert werden, wenn diese auf voneinander gering beabstandeten Achsen angeordnet sind. Unter Kameradaten können im Folgenden wolkenbedingte Daten verstanden werden, welche durch Wolken verursacht werden. Zusätzlich oder alternativ können unter Kameradaten im Folgenden wolkenbedingte Daten verstanden werden, welche durch Wolkenschatten verursacht werden.

Zusätzlich oder alternativ können unter Kameradaten im Folgenden durch Solarstrahlung bedingte Daten verstanden werden, welche durch Intensitäten der wenigstens einen Komponente der globalen Bestrahlungsstärke verursacht werden. Hierbei können die Kameradaten auch durch Intensitäten mehrerer Komponenten der globalen Bestrahlungsstärke verursacht werden.

Hierbei können unter Kameradaten Bilder des Himmels verstanden werden. Zusätzlich oder alternativ können unter Kameradaten Bilder von Bereichen des Himmels verstanden werden. Zusätzlich oder alternativ können unter Kameradaten Bilder der Erdoberfläche verstanden werden. Zusätzlich oder alternativ können unter Kameradaten Bilder von Bereichen der Erdoberfläche verstanden werden.

Zusätzlich oder alternativ können Kameradaten Bildmerkmale eines oder mehrerer Farbkanäle eines Bildes sein. Solche Bildmerkmale können in der Textur und/oder Struktur und/oder in der Farbe beziehungsweise dem Verhältnis von Farbkanälen und/oder Helligkeit bestehen. Diese Bildmerkmale können durch Wolken oder andere Elemente am Himmel verursacht sein. Zusätzlich oder alternativ können diese Bildmerkmale durch Wolkenschatten und/oder andere Elemente am Erdboden verursacht sein. Bildmerkmale, welche nicht durch Wolken und/oder Wolkenschatten verursacht sind, können durch geeignete Methoden aussortiert werden und können dadurch nicht für die Auswertung herangezogen werden. Zusätzlich oder alternativ können Kameradaten Intensitätswerte eines oder mehrerer Farbkanäle und/oder strukturelle Bildmerkmale, insbesondere im Bildbereich, der Sonne sein. Die Intensitätswerte und strukturellen Merkmale können durch eine auf das wenigstens eine Objektiv der jeweiligen Kamera einfallende Strahlung und damit einhergehende Reflexionen und Brechungen und sonstige optische und elektronische Effekte entstehen.

Die Bilder und/oder die Bildmerkmale und/oder die Intensitätswerte können ausgewertet werden. Hierbei kann unter anderem ein aktueller Zustand erfasst werden.

Zusätzlich oder alternativ kann auch eine Veränderung der Bilder und/oder der Bildmerkmale und/oder der Intensitätswerte im Laufe der Zeit erfasst werden.

Unter dem Ermitteln eines Parameters wird im Folgenden das Erfassen und/oder Berechnen eines aktuellen Wertes des Parameters verstanden. Zusätzlich oder alternativ wird im Folgenden unter dem Ermitteln des Parameters das Erfassen und/oder Berechnen eines vorrausichtlich zukünftigen Werts des Parameters verstanden. Der vorrausichtlich zukünftige Wert des Parameters kann beispielsweise aufgrund der aktuellen und/oder der vergangen Kameradaten ermittelt werden.

Unter einem Parameter wird im Folgenden eine mit oder aus den Kameradaten ermittelte Größe verstanden. Diese Größe kann eine Wolkenschattenposition und/oder eine Wolkenmerkmalsposition und/oder eine Wolkengeschwindigkeit und/oder eine Wolkenhöhe sein. Zusätzlich oder alternativ kann diese Größe eine zukünftige Wolkenschattenposition und/oder eine zukünftige Wolkenmerkmalsposition und/oder eine zukünftige Wolkengeschwindigkeit und/oder eine zukünftige Wolkenhöhe sein. Zusätzlich oder alternativ kann diese Größe auch eine Komponente der globalen Bestrahlungsstärke und/oder einer Kombination mehrerer Komponenten der globalen Bestrahlungsstärke oder die globale Bestrahlungsstärke sein. Die erfassten oder ermittelten Werte für die Komponente der globalen Bestrahlungsstärke und/oder für die Kombination mehrerer Komponenten der globalen Bestrahlungsstärke und/oder für die globale Bestrahlungsstärke können weiter verfeinert werden.

Unter der Bestimmung der wenigstens einen Komponente der globalen Bestrahlungsstärke kann im Folgenden das Erfassen und/oder Berechnen eines aktuellen Werts der wenigstens einen Komponente der globalen Bestrahlungsstärke verstanden werden. Zusätzlich oder alternativ kann unter der Bestimmung der wenigstens einen Komponente der globalen Bestrahlungsstärke das Berechnen eines zukünftigen Wertes der wenigstens einen Komponente der globalen Bestrahlungsstärke verstanden werden.

Unter der wenigstens einen Komponente der globalen Bestrahlungsstärke kann im Folgenden eine mit oder aus den Kameradaten und/oder eine mit oder aus den Parametern ermittelte Größe verstanden werden.

Unter einer Komponente der globalen Bestrahlungsstärke kann hierbei eine der folgenden Sonnenstrahlungen oder eine Kombination der folgenden Sonnenstrahlungen verstanden werden: die direkte Strahlung, die diffuse Strahlung, die an der Erdoberfläche reflektierte Strahlung. Alle zusammen entsprechen der globalen Bestrahlungsstärke.

Es wird eine Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke vorgeschlagen, welche eine Auswerte- und Steuereinrichtung sowie eine Kameraanordnung umfasst. Die wenigstens eine Kamera ist zumindest zur Ermittlung des wenigstens einen Parameters mit einem vorgegebenen Abstand zu einer Erdoberfläche fixiert. Die Kameraanordnung ist ausgebildet, Kameradaten in einem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung zu erfassen.

Günstigerweise kann eine Halteanordnung die wenigstens eine Kamera fixieren. Bei zwei oder mehr Kameras können die Kameras von derselben Halteanordnung fixiert sein. Opional können Kameras auch in verschiedenen Halteanordnungen fixiert sein.

Günstigerweise setzt sich das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung aus einem räumlichen ersten Teilsichtfeld und einem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammen, die entlang einer gemeinsamen Achse oder, wenn zwei Kameras eingesetzt werden, an zwei in geringem Abstand voneinander beabstandeten Akten angeordnet sind, insbesondere wobei die gemeinsame Achse oder die mehreren Achsen im Wesentlichen in einer vertikalen Richtung ausgerichtet, oder wobei die gemeinsame Achse oder die mehreren Achsen mit einem Kippwinkel zu der vertikalen Richtung ausgerichtet ist.

Die wenigstens eine Kamera der Kameraanordnung kann auf der wenigstens einen Achse, die die vertikale Achse oder die schräge Achse ausbildet, angeordnet sein, wobei sich das räumliche Sichtfeld von zumindest annähernd 360° entlang der vertikalen Achse(n) oder der schrägen Achse(n) nach oben und nach unten erstrecken kann. Hierbei kann ein oberes räumliches Teilsichtfeld von zumindest annähernd 180° und ein unteres räumliches Teilsichtfeld von zumindest annähernd 180° ausgebildet werden, die die gemeinsame im Wesentlichen vertikale Achse oder schräge Achse, insbesondere im Wesentlichen vertikale Mittelachse oder schräge Mittelachse aufweisen oder entsprechend auf verschiedenen Achsen beabstandet voneinander sind. Das obere Teilsichtfeld und das untere Teilsichtfeld können jeweils eine obere Halbkugel und eine untere Halbkugel ausbilden.

Die obere Halbkugel und die untere Halbkugel können dabei mit ihrer gerade verlaufenden rückwärtigen Flächen, also ihrer Rückseite eine gemeinsame horizontale, senkrecht zur im Wesentlichen vertikalen Achse oder schrägen Achse verlaufende Fläche, insbesondere Kreisfläche ausbilden. Der Mittelpunkt der Kameraanordnung kann auf dem Schnittpunkt gemeinsamen Achse und der horizontalen Achse ausgebildet sein.

Unter der wenigstens einen Kamera kann eine RGB-Kamera oder eine Infrarot-Kamera verstanden werden. Die wenigstens eine Kamera kann beispielsweise 24 Bilder pro Sekunde aufnehmen. Diese können mit einem entsprechenden Zeitstempel versehen werden. Es können auch andere Bilderzeugungsraten gewählt werden. Zusätzlich sind erweiterte Aufbauten mit beispielsweise Verschattungsvorrichtungen vorstellbar, um einen Störeinfluss der direkten Sonneneinstrahlung zu reduzieren.

Die Kameraanordnung kann insbesondere ausgebildet sein, Kameradaten in einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung zu erfassen, wobei die Kameradaten geeignet sind, um Informationen zur Solarstrahlung und/ oder zu Position und/oder Eigenschaften von Wolken abzuleiten. Die Halteanordnung kann die Kamera zur Bestimmung des wenigstens einen Parameters in einem bestimmten Abstand über dem Erdboden fixieren. Hierbei kann die Halteanordnung eine lokal, fest montierte Anordnung, beispielsweise ein geeignetes Gestänge oder Gerüst sein. Zusätzlich oder alternativ kann die Halteanordnung eine bewegliche Anordnung beispielsweise eine Drohne sein, welche mobil einsetzbar ist und die wenigstens eine Kamera in einer vorgegeben Höhe an einem vorgegebenen Ort fixiert.

Die Halteanordnung kann derart ausgebildet sein, dass die Kameraanordnung auf der gemeinsamen Achse angeordnet ist und ein räumliches Sichtfeld von zumindest annähernd 360°ausgebildet wird.

Die Auswertungsergebnisse der Kameradaten, beispielsweise einzelner Farbkanäle können mit Auswertungsergebnissen anderer Farbkanäle verglichen werden. Zusätzlich oder alternativ können Auswertungsergebnisse mit verschiedenen Zeitstempeln eines Farbkanals miteinander verglichen werden. Auch eine weitere Auswertung der Auswertungsergebnisse mit Auswertungsergebnissen mit anderen Zeitstempeln oder mit Auswerteergebnissen von einem anderen Farbkanal ist möglich.

In einem Ausführungsbeispiel, in welchem sich das Sichtfeld von zumindest annähernd 360° aus zwei Teilsichtfeldern von zumindest annähernd 180° an einem vorgegebenen Ort zusammensetzt, können in vorteilhafter Weise Auswertungsergebnisse eines ersten Teilsichtfelds von zumindest annähernd 180° und Auswertungsergebnisse eines zweiten Teilsichtfelds von zumindest annähernd 180° miteinander kombiniert werden. Dadurch kann zur Ermittlung der meisten Parameter zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke in vorteilhafter Weise auf das Zurückgreifen von Schätzwerten oder von Werten aus externen Datenquellen verzichtet werden, wodurch die Ermittlung der Parameter für einen vorgegeben Standort genauer und zuverlässiger ist, als mit üblichen Anordnungen, welche auf Schätzwerte und auf Werte aus externen Datenquellen zurückgreifen. Des Weiteren sind keine weiteren Sensoreinheiten erforderlich.

Üblicherweise wird die Bestrahlungsstärke der wenigstens einen Komponente der globalen Bestrahlungsstärke in Bezug auf eine Oberfläche, auf welche diese auftrifft, angegeben. Diese Oberfläche kann verglichen zur Erdoberfläche geneigt sein und beispielsweise auch der Erdoberfläche zugewandt sein.

Dadurch kann die aktuelle direkte Strahlung, die aktuelle diffuse Strahlung, die aktuelle an der Erdoberfläche reflektierte Strahlung und die aktuelle globalen Bestrahlungsstärke aus den Parametern und/oder direkt aus den Kameradaten ermittelt werden. Dadurch kann in vorteilhafter Weise eine aktuelle Leistung einer Solaranlage abgeschätzt werden.

Zudem kann durch die Ermittlung eines künftigen Werts für die Sonnenstrahlung eine Vorhersage für die zukünftige diffuse Strahlung, die zukünftige an der Erdoberfläche reflektierte Strahlung und die zukünftige globale Bestrahlungsstärke aus den Parameter ermittelt werden. Dadurch kann in vorteilhafter Weise eine zukünftige Leistung einer Solaranlage abgeschätzt werden.

Des Weiteren können neben den ermittelten Parametern zur Vorhersage der zukünftigen Sonnenstrahlung auch aktuelle Werte der Sonnenstrahlung herangezogen werden. In vorteilhafter Weise können durch das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung die Vorteile einer Anordnung mit zum Himmel ausgerichteter Himmelskamera, auch als Wolkenkamera bekannt, mit den Vorteilen einer Anordnung mit zum Erdboden ausgerichteten Bodenkamera, auch als Schattenkamera bekannt, kombiniert werden und die Nachteile der Himmelskamera und der Wolkenkamera ausgeglichen werden.

Zur Erzielung der Vorteile können die Kameradaten, welche im Sichtfeld von zumindest annähernd 360° erfasst werden, ausgewertet werden. In vorteilhafter Weise können die Kameradaten beispielsweise an einem gemeinsamen Ort an mit Kameras an einer gemeinsamen Achse oder an gering voneinander beabstandeten Achsen zeitgleich erfasst und für diesen Ort ausgewertet werden.

Durch die Kombination der Vorteile kann eine Kameraanordnung mit Sichtfeld von zumindest annähernd 360° ausreichen um genügend Kameradaten zu erfassen, um gewünschte Parameter zuverlässig zu erfassen und/oder vorherzusagen. Dadurch kann auf weitere Kameras an anderen Standorten oder auf weitere Sensoreinheiten verzichtet werden.

Hierbei kann ein großer Ausschnitt des Himmels erfasst und überwacht werden, insbesondere Wolken können lange bevor deren Schatten in dem überwachten Gebiet eintreffen, erkannt und entsprechende Vorhersagen gemacht werden.

Ein weiterer Vorteil der Auswertung der Kameradaten, welche im Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfasst werden, ist, dass manche Parameter, wie eine Wolkengeschwindigkeit über dem Erdboden, genau und direkt aus diesen Kameradaten entnommen werden können. Der überwachbare und erfassbare Ausschnitt des Erdbodens ist hierbei unter anderem abhängig von einer Höhe, in welcher die wenigstens eine Kamera, welche in Richtung Erdboden ausgerichtet ist, angeordnet ist.

Um eine zuverlässige Vorhersage treffen zu können, werden Bodenkameras üblicherweise auf hohen Türmen oder Bergrücken angeordnet, um den Ausschnitt des Erdbodens, welchen sie überwachen, zu vergrößern. Durch die Höhe können bei diesen Anordnungen Wolken, welche zwischen der Kamera und dem Erdboden schweben, eine Überwachung des Erdbodens verhindern oder erschweren.

In vorteilhafter Weise kann eine Vorhersage mit Kameradaten wenigstens einer zum Himmel ausgerichteten Kamera ermittelt werden, wodurch zur Überwachung des Erdbodens nicht zwingend ein großer Ausschnitt des Erdbodens erforderlich ist, sodass die Kameraanordnung, im Gegensatz zu bekannten Schattenkameraanordnungen mit geringerer Höhe über dem Erdboden angeordnet werden kann.

Beispielsweise kann die Halteanordnung die wenigstens eine Kamera mit einem Abstand von 1 -100 m, der üblich für Albedomessungen ist, zum Erdboden fixieren. Ein minimaler Abstand der wenigstens einen Kamera zum Erdboden kann vom Erdboden abhängig gemacht sein. An Standorten mit Schnee, ungemähtem Gras oder Ackerpflanzen am Erdboden sollte eine Höhe von beispielsweise 10 m gewählt werden, um Störeinflüsse durch Unebenheiten der Oberfläche zu vermeiden. Es sind bei weniger stark bewachsenen Oberflächen und/oder in Gebieten mit geringem Schneefall auch geringere Höhen möglich. Des Weiteren kann die Mindesthöhe so gewählt sein, dass Gradienten der Intensitäten der RGB- Kanäle der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, sicher identifiziert werden können, sodass die daraus ermittelbaren Parameter zuverlässig und genau bestimmt werden können.

Ein maximaler Abstand der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, verhindert, dass tiefliegende Wolken eine Erfassung von Kameradaten erschweren. Dieser maximale Abstand ist in Abhängigkeit vom Einsatzzweck und Einsatzort zu bestimmen. Sind beispielsweise Wolken in einer Höhe ab 500 m über der Kamera von Interesse, sollte die mindestens eine Kamera in einer Höhe von nicht mehr als 100 m angebracht werden, um diese Wolken sicher zu erfassen. Wird die Anordnung auch zur Messung der am Erdboden reflektierten Strahlung verwendet, ist ein geringerer Abstand vorteilhaft.

Mit zunehmendem Abstand nimmt auch das Gebiet zu, welches in die Messung der am Erdboden reflektierten Strahlung eingeht. Dieses Gebiet kann potenziell durch unerwünschte Einflüsse wie Bäume, reflektierende Objekte, Landnutzung etc. beeinträchtigt werden.

Dadurch dass die Kameraanordnung maximal in einer Höhe von 100 m fixiert ist, können die Kosten für die Halteanordnung reduziert werden. Zudem kann eine solche feststehende Kameraanordnung einfach und schnell an beliebigen Orten aufgestellt werden, sodass die Kameraanordnung flexibel einsetzbar ist.

Alternativ kann eine Drohne einfach in einer solchen Höhe fliegen und kann ebenfalls flexibel an mehreren Standorten eingesetzt werden. Dadurch ist für die Halteanordnung auch ein Standortwechsel, nach erfolgter Berechnung der gewünschten Parameter, möglich. Dadurch kann eine Eignung eines Geländes beispielsweise für einen Solarpark einfach und kostengünstig überprüft werden.

Des Weiteren kann die Kameraanordnung an einer Oberkante eines Gebäudes angeordnet werden. Hierbei kann das Gebäude einem Überwachungsgebäude oder Verteilerhaus einer Solaranlage oder einem Wohnhaus entsprechen. Es ist kein Turm oder ein anderes hohes Gebäude erforderlich. Durch ein durch das Gebäude eingeschränktes Sichtfeld der Kameraanordnung, kann eine Erfassung von Kameradaten und eine Ermittlung des wenigstens einen Parameter erschwert sein.

In vorteilhafter Weise können die Kameradaten durch die erfindungsgemäße Anordnung an einem gemeinsamen Standort ermittelt werden. Dadurch kann das Übertragen von Kameradaten zwischen zwei Standorten und das Umrechnen der Daten von einem Standort auf den anderen entfallen. Dadurch kann eine Wartung und ein Betrieb der erfindungsgemäßen Anordnung erleichtert werden.

Insbesondere kann durch eine reduzierte Kameraanzahl bzw. eine reduzierte Kameraanordnungsanzahl ein Aufwand für eine Hardware und dadurch Kosten für die Hardware reduziert werden.

Nach einer günstigen Ausgestaltung der Anordnung kann sich das Sichtfeld von zumindest annähernd 360° um die Kameraanordnung an einem vorgegebenen Ort aus einem ersten Teilsichtfeld und einem zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammensetzen. Wenigstens eine erste Kamera erfasst Kameradaten im ersten Teilsichtfeld und wenigstens eine zweite Kamera erfasst Kameradaten im zweiten Teilsichtfeld, wobei sich die beiden Teilsichtfelder der Kameras zu einem Sichtfeld von zumindest annähernd 360° ergänzen. Die Kameras sind insbesondere jeweils als Fischaugenkamera ausgeführt. Die Ausrichtung der Sichtfelder kann beliebig gewählt werden. Es ist beispielsweise möglich, dass die Sichtfelder seitlich ausgerichtet sind, so dass eine Kamera einen Erdbodenabschnitt und einen Himmelsabschnitt auf einer Seite erfasst und die andere Kamera einen Erdbodenabschnitt und einen Himmelsabschnitt auf einer entgegengesetzten Seite erfasst. Die Anordnung und Ausrichtung der Kameras kann frei gewählt werden, solange insgesamt ein Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfasst wird. Die Anordnung der Kameras kann hierbei entlang der einen gemeinsamen Achse oder entlang von gering beabstandeten Achsen ausgerichtet sein, wobei die eine oder mehrere Achsen im Wesentlichen vertikal ausgerichtet und eine im Wesentlichen vertikale Achse ausbilden können oder mit einem Kippwinkel zu der vertikalen Achse gekippt sein und eine schräge Achse ausbilden.

In vorteilhafter Weise kann durch die Überwachung eines vorgegeben Teilsichtfelds durch eine eigene Kamera die Zuordnung der Kameradaten zum Teilsichtfeld erleichtert und dadurch eine Interpretation und Auswertung der Kameradaten erleichtert werden.

Beispielsweise können Kameradaten leichter der wenigstens einen Komponente der globalen Bestrahlungsstärke zugeordnet werden, wenn klar ist, in welchem Sichtfeld diese erfasst wurden. In einem alternativen Ausführungsbespiel kann das Sichtfeld von zumindest annähernd 360° in mehr als zwei Teilsichtfelder aufgeteilt sein. Zudem sind weitere Kameras vorstellbar, welche Kameradaten in den zusätzlichen Teilsichtfeldern erfassen.

Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine erste Kamera als Himmelskamera Kameradaten im ersten Teilsichtfeld erfassen, das in Richtung Himmel ausgerichtet ist und ein oberes Teilsichtfeld bildet. Wenigstens eine zweite Kamera kann als Bodenkamera Kameradaten im zweiten Teilsichtfeld erfassen, das in Richtung Erdoberfläche ausgerichtet ist und ein unteres Teilsichtfeld bildet. Die Kameras sind insbesondere als Fischaugenkameras ausgeführt. Das obere Teilsichtfeld und das untere Teilsichtfeld können die gemeinsame, im Wesentlichen vertikale Achse oder schräge Achse aufweisen oder auf beabstandeten Achsen angeordnet sein.

Durch die Verwendung mehrerer Kameras kann in vorteilhafter Weise auf die Verwendung einer omnidirektionalen Kamera verzichtet werden.

Des Weiteren können die Kameradaten der jeweiligen Kameras einfach dem oberen oder dem unteren Teilsichtfeld zugeordnet werden. Die Kameras können speziell zur Überwachung des Himmels und des Erdbodens ausgebildet sein.

Alternativ kann eine 360°-Kamera mit Sichtfeld von zumindest annähernd 360° um die Kameraanordnung Kameradaten im ersten Teilsichtfeld erfassen, und Kameradaten im zweiten Teilsichtfeld erfassen. Hierbei kann insbesondere das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden, und das zweite Teilsichtfeld kann ein in Richtung Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden.

Durch die Verwendung einer Kamera kann in vorteilhafter Weise auf die Verwendung mehrerer Kameras verzichtet werden. Dadurch kann eine Installation vereinfacht werden. Des Weiteren können durch eine einzige Kamera und durch die reduzierte Anzahl an Kameras mögliche Fehlerquellen minimiert werden, beispielsweise bei einer Datenübertragung, oder durch eine ungenaue Ausrichtung der Kameras und/oder durch die Kalibrationen der entsprechenden Kameras. Das Zuordnen der Kameradaten zum oberen oder unteren Teilsichtfeld kann bei der Auswertung der Kameradaten erfolgen. Die verwendeten Kameras können hochauflösende und hochwertige Bilder bzw. Kameradaten erzeugen. Alternativ können Überwachungskameras eingesetzt werden. Diese sind günstiger und können Bilder mit stärkeren Artefakten liefern. In einer alternativen Ausgestaltung ist eine Anordnung von Kameras und Parabolspiegeln vorstellbar.

Im Gegensatz zu bekannten Anordnungen mit Himmelskameras, welche Wolkenhöhen und damit Wolkengeschwindigkeiten über dem Erdboden ermitteln können, überwacht die erfindungsgemäße Anordnung nur ein einziges oberes Teilsichtfeld, während übliche Himmelskameraanordnungen mit diesem Leistungsumfang wenigstens zwei obere Teilsichtfelder überwachen und mindestens zwei Himmelskameras umfassen.

Im Gegensatz zu bekannten Anordnungen mit Bodenkameras überwacht die erfindungsgemäße Anordnung nur einen kleinen Ausschnitt des Erdbodens, so dass die Bodenkamera mit geringerem Abstand zum Erdboden angeordnet werden kann, als bei üblichen Bodenkameraanordnungen.

Bei einer Ausführung der Kameraanordnung mit einer Himmelskamera und einer Bodenkamera können die beiden Kameras am gleichen Standort mit entgegengesetzter Ausrichtung installiert sein.

Bei einer Ausführung der Kameraanordnung mit einer einzigen Kamera ist diese automatsch an einem Standort angeordnet.

In vorteilhafter Weise kann bei der erfindungsgemäßen Anordnung ein Aufwand für die Anschaffung und für den Betrieb einer Hardware reduziert werden, da die Vorteile einer Wolkenkameraanordnung und einer Schattenkameraanordnung miteinander kombiniert werden können. Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung aus den erfassten Kameradaten dem Himmel zugeordnete Kameradaten entnehmen und aus diesen, dem Himmel zugeordneten Kameradaten wenigstens einen der folgenden Parameter ermitteln: eine direkte Strahlung und/oder eine diffuse Strahlung und/oder eine globale Bestrahlungsstärke Gl und/oder wenigstens eine Position von Wolkenmerkmalen und/oder von Wolken bedeckte Himmelsbereiche und/oder aus Wolkenpositionen und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild.

Unter Wolkenmerkmalen werden im Folgenden Bildmerkmale verstanden, welche auf eine Wolke hinweisen. Unter einer Wolkenposition wird im Folgenden eine Abschätzung der Position einer Wolke oder einer Wolkenansammlung verstanden, da Wolken keine festen Objekte sind, und in einer Wolkenformation einzelne Wolken schwer zu unterscheiden sind.

Mit einer Kamera, welche ausschließlich das obere Sichtfeld überwacht, kann die Entnahme der dem Himmel zugeordneten Kameradaten einfach erfolgen, da nahezu alle Kameradaten dieser Kamera dem Himmel zugeordnet werden können. Bei einer Kamera, welche sowohl Teile des Himmels als auch Teile des Erdbodens überwacht, kann eine vorherige Auswertung der Kameradaten, eine Zuordnung zum Himmel oder zum Erdboden ermöglichen.

Wenigstens eine Auswerte- und Steuereinrichtung kann mit einer entsprechenden Programmierung mit einem entsprechenden Auswertungsverfahren die Winkelgeschwindigkeit einer Wolke oder von mehreren Wolken oder einer Wolkenformation aus den Kamerabildern ermitteln. In einem möglichen Auswertungsverfahren zur Bestimmung der Position von Wolkenmerkmalen und/oder und zur Berechnung der Winkelgeschwindigkeit einer Wolke oder von mehreren Wolken oder einer Wolkenformation können Bildmerkmale, welche der Position der Wolke oder den Positionen der Wolken oder der Wolkenformation entsprechen, erkannt werden. Zur Berechnung der Winkelgeschwindigkeit einer Wolke oder von mehreren Wolken oder einer Wolkenformation kann eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti=to und t2=to+At ermittelt werden.

Die Verschiebung kann durch Erstellung von Differenzbildern di eines Farbkanals der Farbkanäle, dargestellt werden. Hierbei kann ein erstes Differenzbild di aus einem Kamerabild zu einem ersten Zeitpunkt ti =to und einem Kamerabild zu einem zweiten Zeitpunkt t2=to+At erstellt werden. Zusätzlich kann ein zweites Differenzbild d2 aus dem Kamerabild zum zweiten Zeitpunkt t2=to+At und einem Kamerabild zu einem dritten Zeitpunkt ts=to+2At erstellt werden.

Die Differenzbilder di und d2 können entzerrt werden. Unter dem Entzerren wird hierbei verstanden, dass die ermittelten Werte in eine horizontale Ebene mit unbekannter Höhe über der Kamera projiziert werden. Aus dieser Projektion resultieren Orthobilder 01 und 02. Aus den Orthobildern 01 und 02 werden Bildmerkmale und deren Position identifiziert.

In einem weiteren Schritt können die Orthobilder 01 und 02 in binäre Bilder bi, b2 umgewandelt werden, wobei beispielsweise jeweils 2% der Pixel den Wert 1 und die übrigen 98% der Pixel den Wert 0 erhalten. Diese 2% der Pixel weisen betragsmäßig die größte Differenz auf. Dadurch können starke Anstiege oder Abfälle von diesem Farbkanal zwischen den Zeitpunkten to, to+At, to+2At ermittelt werden. In einem weiteren Schritt können beispielsweise über eine Kreuzkorrelation diese binären Bilder insgesamt verglichen werden oder in einem verfeinerten Verfahren können die Bilder bereichsweise verglichen werden. Die Verschiebung Am, An entspricht der Verschiebung, für welche die Kreuzkorrelation zwischen den binären Orthobildern 01 und 02 maximal wird. Dieses Verfahren kann für wenigstens einen Farbkanal durchlaufen werden. Es können auch mehrere Farbkanäle auf diese Art ausgewertet werden. Des Weiteren können weitere Verfeinerungen und geeignete Anpassungen in dem Verfahren zur Ermittlung der Verschiebung Am, An der Wolke bzw. der Wolken vorgenommen werden.

In einem alternativen Verfahren lassen sich Bildmerkmale und deren Verschiebung Am, An auch auf andere Weise beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren ermitteln.

Mit Hilfe des bekannten Zeitversatzes t 2 - z^und Am, An lässt sich dann die Winkelgeschwindigkeit in beiden Richtungen x und y berechnen als:

^x pix/s = m/(t 2 - ti)

Die direkte Strahlung und/oder die diffuse Strahlung kann von wenigstens einer Auswerte- und Steuereinrichtung ermittelt werden. Dies kann dieselbe Auswerte- und Steuereinrichtung sein, welche bereits die Winkelgeschwindigkeit der Wolke ermittelt, oder dies kann eine andere Auswerte- und Steuereinrichtung sein.

Als Grundlage werden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera im oberen Teilsichtfeld bzw. aus den dem Himmel zugeordneten Kameradaten von der Auswerte- und Steuereinrichtung ausgewertet. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera ausgelesen werden. In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB- Kanäle des Kamerabildes die Strahlung (Radianz) berechnet, welche aus einem bestimmten Himmelsbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasierten Lernmodell (Machine-Learning-Modell) ersetzen werden.

Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das Kameramodell ersetzen oder nachahmen oder ergänzen oder selbständig anpassen.

In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten.

Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert ist oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt. In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel erfolgen. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar. Ein Winkelgrad des Azimuthwinkels kann von Süden über Westen, Norden und Osten angegeben werden.

Beim Zuordnen der Bildbereiche zu Himmelsbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Alternativ kann die Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel grob erfolgen. Beispielsweise ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasierten Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden.

In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.

In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar. Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen teilweise zusammengefasst oder umgeschrieben werden. Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen.

In einem weiteren Schritt des Auswertungsverfahrens kann aus der Strahlung (Radianz), welche aus verschiedenen Himmelsbereichen empfangen wird, beispielsweise durch eine Projektion eine diffuse und/ oder direkte Strahlung in einer beliebigen horizontalen oder zum Erdboden geneigten Ebene einschließlich einer Ebene die dem Erdboden zugewandt ist, bestimmt werden. Dabei kann die Zuordnung der Bildbereiche zu Himmelsbereichen und eine Integration über Bildbereiche/ Himmelsbereiche zum Einsatz kommen. Bei Bedarf kann auch die Globalstrahlung in geneigten und auch in zum Erdboden gerichteten Ebenen ermittelt werden.

In einer alternativen Ausführung des Verfahrens können die Teilschritte, beispielsweise das Anwenden eines physikalischen Kameramodells und/oder die Zuordnung von Bildbereichen zu Himmelsbereichen und/oder die Anwendung physikalisch motivierter Korrekturen und/oder die Projektion in eine beliebige Ebene, zur Bestimmung von direkter und diffuser Strahlung in einer beliebigen Ebene teilweise oder als Ganzes durch ein so genanntes Machine-Learning Modell nachgeahmt werden. In einer einfachsten Ausführung der Anordnung können durch die Auswertung der Intensitäten der RGB-Kanäle, aus dem oberen Teilsichtfeld bzw. aus den dem Himmel zugeordneten Kameradaten, Werte ermittelt werden, welche der Summe aus diffuser Strahlung und direkter Strahlung entsprechen. Erweiterungen wären möglich, so dass eine Ermittlung separater Werte für diffuse Strahlung und direkte Strahlung ermöglicht werden kann.

In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare Ressource am Standort beurteilt werden. Hierbei sind keine weiteren Sensoren oder Sensoreinheiten, wie beispielsweise Pyranometer, erforderlich. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten ermittelt werden.

In vorteilhafter Weise kann die Kenntnis der von Wolken bedeckten Bereiche im oberen Teilsichtfeld zur weiteren Beurteilung der ermittelten Strahlung herangezogen werden. Beispielsweise kann die diffuse Strahlung durch Wolken zunehmen und eine direkte Strahlung kann durch Wolken abnehmen. Bei einer anderen Witterung können am Standort andere Strahlungsbedingungen herrschen. Die aktuellen und die zukünftigen Strahlungsbedingungen können durch die Ermittlung der Wolkenpositionen und der Geschwindigkeit der Wolken zumindest teilweise ermittelt werden.

Nach einer günstigen Ausgestaltung der Anordnung kann die Auswerte- und Steuereinrichtung aus den erfassten Kameradaten der Erdoberfläche zugeordnete Kameradaten entnehmen und aus diesen der Erdoberfläche zugeordneten Kameradaten wenigstens einen der folgenden Parameter ermitteln: eine an der Erdoberfläche reflektierte Strahlung und/oder eine Albedo der Erdoberfläche und/oder wenigstens eine Wolkenschattenposition und/oder aus den Wolkenschattenpositionen zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche.

Mit einer Kamera, welche ausschließlich das untere Sichtfeld überwacht, kann die Entnahme der der Erdoberfläche zugeordneten Kameradaten einfach erfolgen, da nahezu alle Kameradaten dieser Kamera dem Erdboden zugeordnet werden können. Bei einer Kamera, welche sowohl Teile des Himmels als auch Teile des Erdbodens überwacht, kann eine vorherige Auswertung der Kameradaten, eine Zuordnung zum Himmel oder zum Erdboden ermöglichen.

Die Geschwindigkeit einer Wolke oder von mehreren Wolken über dem Erdboden kann von wenigstens einer Auswerte- und Steuereinrichtung, aus den Kamerabildern des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten ermittelt werden. Dies kann eine der Auswerte- und Steuereinrichtungen sein, welche die Kameradaten des oberen Teilsichtfelds bzw. die dem Himmel zugeordneten Kameradaten auswertet oder eine weitere Auswerte- und Steuereinrichtung sein.

Das korrespondierende Auswertungsverfahren ist ähnlich dem zur Bestimmung der Winkelgeschwindigkeit der Wolken aus Bildern des oberen Teilsichtfelds bzw. aus den dem Himmel zugeordneten Kameradaten. In einem alternativen Verfahren lassen sich Bildmerkmale, welche der Position wenigstens eines Wolkenschattens entsprechen, und deren Verschiebung Am, An auch auf andere Weise beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren ermitteln.

In einem möglichen Auswertungsverfahren können Bildmerkmale, welche der Position eines Wolkenschattens oder den Positionen mehrerer Wolkenschatten entsprechen, erkannt und eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti= to, t2=to+At, ts= to+2At ermittelt werden.

Diese Bilder können mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes sowie mit Hilfe geometrischer Kalibrationen der Kamera in Orthobilder umgerechnet werden. Hierbei ist die Projektionshöhe im Gegensatz zur Auswertung des oberen Teilsichtfelds bzw. der Auswertung der dem Himmel zugeordneten Kameradaten bekannt. In den entsprechenden Orthobildern entspricht dadurch jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets. Differenzbilder können aus den in Graustufen umgerechneten Orthobildern berechnet werden. Anstellte von Graustufen sind auch andere Ausgaben möglich. Wie bei der Ermittlung der Winkelgeschwindigkeit können Differenzbilder in binäre Bilder umgewandelt werden. Über eine Kreuzkorrelation kann die Verschiebung von Bildpixeln Am, An, welche einer entsprechenden Verschiebung Ax, Ay der Wolkenschatten im überwachten Gebiet zugeordnet werden können, ermittelt werden. Der Betrag dieser „absoluten“ Geschwindigkeit der Wolkenschatten über dem Erdboden wird dann berechnet als wobei der Skalierungsfaktor k sc (Einheit m/pixel) die bekannte Seitenlänge eines Bildpixels in Metern angibt. Da die Geschwindigkeit der Wolkenschatten über dem Erdboden auch der Geschwindigkeit der korrespondierenden Wolke über dem Erdboden entspricht, sind in vorteilhafter Weise zur Ermittlung der Wolkengeschwindigkeit über dem Erdboden keine zwei Himmelskameras, welche unterschiedliche obere Teilsichtfelder überwachen, erforderlich, da die Wolkengeschwindigkeit aus dem einen unteren Teilsichtfeld bzw. aus den der Erdoberfläche zugeordneten Kameradaten einfach ermittelt werden kann. Zudem kann auf die Verwendung von Schätzwerten bei der Berechnung der Wolkengeschwindigkeit verzichtet werden, wodurch ein zuverlässiger und genauer Wert für die Wolkengeschwindigkeit über dem Erdboden berechnet werden kann.

Unter der Wolkengeschwindigkeit über dem Erdboden wird im Folgenden eine Geschwindigkeit der Wolken im Vergleich zu gedachten Fixpunkten am Erdboden verstanden. Aus der ermittelten Wolkengeschwindigkeit und der aktuellen Wolkenposition, kann in vorteilhafter Weise eine zukünftige Wolkenposition und eine entsprechende Veränderung der globalen Bestrahlungsstärke in einem vorgegebenen Gebiet ermittelt bzw. vorhergesagt werden.

Die an der Erdoberfläche reflektierte Strahlung und/oder die Albedo des Erdbodens kann von wenigstens einer Auswerte- und Steuereinrichtung ermittelt werden. Dies kann dieselbe Auswerte- und Steuereinrichtung sein, welche bereits einen anderen Parameter ermittelt, oder dies kann eine andere Auswerte- und Steuereinrichtung sein.

Die Ermittlung, der am Erdboden reflektierten Strahlung verläuft ähnlich, wie die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung. Als Grundlage werden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera, welche Kameradaten aus dem unteren Teilsichtfeld ermittelt, von der entsprechenden Auswerte- und Steuereinrichtung ausgewertet. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera ausgelesen werden, wenn diese ausschließlich den Erdboden überwacht. Ansonsten können die relevanten Kameradaten zuvor von den nicht relevanten Kameradaten getrennt werden. In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB-Kanäle des Kamerabildes die Strahlung berechnet, welche aus einem bestimmten Erdbodenbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasiertes Lernmodell (Machine-Learning-Modell) ersetzt werden. Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das Kameramodell ersetzen oder nachahmen oder ergänzen oder selbständig anpassen.

In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten. Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert ist oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt.

In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes erfolgen. Hierbei kann jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets entsprechen. Alternativ kann die pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen aus der Wolkengeschwindigkeitsermittlung übernommen werden. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar.

Beim Zuordnen der Bildbereiche zu Erdbodenbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Des Weiteren ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasiertes Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden.

In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.

In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar.

Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen, teilweise zusammengefasst oder umgeschrieben werden. Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen.

In einem weiteren Schritt des Auswertungsverfahrens kann bei Bedarf die auf einer Ebene auftreffende, am Erdboden reflektierte Strahlung auch für geneigte Ebenen und auch für zum Erdboden gerichteten Ebenen ermittelt werden.

In einer alternativen Ausführung des Auswertungsverfahrens können die Teilschritte, beispielsweise das Anwenden eines physikalischen Kameramodells und/oder die Zuordnung von Bildbereichen zu Himmelsbereichen und/oder die Anwendung physikalisch motivierter Korrekturen und/oder einer Projektion in eine beliebige Ebene zur Bestimmung der am Erdboden reflektierten Strahlung teilweise oder als Ganzes durch ein Machine-Learning Modell nachgeahmt werden.

Des Weiteren kann in einem weiteren Schritt aus der ermittelten reflektierten Strahlung und der ermittelten direkten Strahlung und der ermittelten diffusen Strahlung die aktuelle Albedo des Erdbodens bzw. eine detailliertere Reflektanz des Erdbodens abgeleitet werden. In vorteilhafter Weise ist durch die Auswertung der Kameradaten des unteren Sichtfelds bzw. der der Erdoberfläche zugeordneten Kameradaten und des oberen Sichtfelds bzw. der dem Himmel zugeordneten Kameradaten die Ermittlung der aktuellen, beispielweise witterungsbedingten, jahreszeitbedingten oder vegetationsbedingten Albedo bzw. Reflektanz des Erdbodens im überwachten Gebiet möglich. Dadurch kann auf das Zurückgreifen auf einen weniger genauen Schätzwert der Albedo bzw. Reflektanz des Erdbodens verzichtet werden. Dadurch kann eine bessere Einschätzung der solaren Strahlung in diesem Gebiet ermöglicht werden. In vorteilhafter Weise kann die Reflektanz bzw. die Albedo des Erdbodens und/oder die reflektiere Strahlung und/oder direkte Strahlung und/oder die diffuse Strahlung winkelaufgelöst und spektral aufgelöst angegeben werden.

Zusätzlich kann aus der Strahlung aus den verschiedenen Bereichen des Himmels und aus der winkel- und spektral aufgelösten Reflektanz des Erdbodens bzw. der Albedo die globale und diffuse Bestrahlungsstärke in beliebigen geneigten Ebenen berechnet werden, einschließlich solcher Ebenen, die zum Erdboden zeigen. Dadurch kann insbesondere für bifaziale Photovoltaik-Module die Strahlung auf der Modulrückseite für jedes Modul individuell und unter Berücksichtigung der typischerweise komplexen Geometrie der Kraftwerke berechnet werden. Dieser Aufbau kann zusätzlich durch die Kombination mit einem Pyranometer unterstützt werden.

Die Reflektanz entspricht hierbei dem Reflexionsgrad der Oberfläche. Der Reflexionsgrad gibt das Verhältnis einer von einer Oberfläche reflektierten Strahlungsleistung zu einer auf die Oberfläche treffende Strahlungsleistung an.

Unter einer winkelaufgelösten Reflektanz wird eine Information im Sinne einer bidirektionalen Reflexionsverteilungsfunktion beziehungsweise daraus ableitbare Größen wie eine detaillierte Zusammensetzung der Albedo, insbesondere eine Black-Sky Albedo und White-Sky Albedo, verstanden.

Unter einer spektralaufgelösten Reflektanz wird das Verhältnis aus von einer Oberfläche reflektierten Strahlungsleistung bei einer bestimmten Wellenlänge bzw. in einem bestimmten Wellenlängenbereich und der auf die Oberfläche treffende Strahlungsleistung mit dieser bestimmten Wellenlänge bzw. in diesem Wellenlängenbereich, verstanden. Des Weiteren kann in vorteilhafter Weise durch die Kameradaten des unteren Sichtfelds bzw. der Erdoberfläche zugeordnete Kameradaten eine Verschmutzung oder Beschädigung einer Solaranlage und anderer solartechnischer Kollektoren überwacht werden, um bei Bedarf eine Reinigung oder Reparatur veranlassen zu können.

Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung aus der Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche und der Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild eine Höhe der Wolken ermitteln.

Die Berechnung der Wolkengeschwindigkeit über dem Erdboden kann im oberen Teilsichtfeld bzw. aus den dem Himmel zugeordneten Kameradaten basierend auf der Winkelgeschwindigkeit v p(-x / s erfolgen:

Daraus ergibt sich für die Höhe H2 der Wolke:

Hierbei entspricht der Winkel 0 dem maximalen Zenithwinkel bis zu dem das obere Sichtfeld von 180° oder zumindest annähernd 180° um die Kameraanordnung ausgewertet wird. N entspricht dem Durchmesser in Pixeln des kreisförmigen Bildbereichs, welcher den Himmelsbereich mit einem Zenithwinkel kleiner oder gleich 0 darstellt. Der Winkel 0 und der Parameter N lassen sich aus dem Kamerabild des oberen Sichtfelds von zumindest annähernd 180° um die Kameraanordnung bestimmen. v m /s entspricht der ermittelten Geschwindigkeit der Wolke über dem Erdboden, und v P ix/s entspricht der ermittelten Winkelgeschwindigkeit der Wolke. H2 entspricht der Höhe der über die Kameraanordnung bzw. über der zum Himmel ausgerichteten wenigstens einen Kamera der Kameraanordnung projizierten Wolke. Da der Abstand der wenigstens einen Kamera zum Erdboden bekannt ist, kann aus dem bekannten Höhenprofil des überwachten Gebietes, der aktuellen Wolkenposition und der Höhe, der über die Kamera projizierten Wolke die tatsächliche Höhe der Wolke über dem Erdboden an ihrer aktuellen Position berechnet werden. Eine Verfeinerung der Berechnungen ist möglich.

Insbesondere kann die Auswerte- und Steuereinrichtung mit der Höhe der Wolken, der aktuellen Position der Wolken und der Wolkengeschwindigkeit über der Erdoberfläche eine zukünftige Wolkenposition ermitteln. Daraus kann eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke in einem vorgegebenen Gebiet abgeschätzt bzw. berechnet werden. Dadurch können in vorteilhafter Weise genauere Kürzestfrist-Vorhersagen der Solarstrahlung mit nur einer Kameraanordnung am selben Standort erstellt werden, wobei die verwendeten Kameras nur wenige Meter über dem Erdboden installiert sind. In vorteilhafter Weise kann dadurch frühzeitig auf Verschattungen oder eine zu erwartende Fluktuation der Leistung der Solaranlage reagiert werden. In vorteilhafter Weise können die Kameradaten an einem gemeinsamen Standort ermittelt werden, wodurch eine Wartung und ein Betrieb der erfindungsgemäßen Anordnung erleichtert und kostengünstiger gestaltet werden kann.

Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung die Geschwindigkeit von Wolken über der Erdoberfläche und/oder die Winkelgeschwindigkeit von Wolken im Kamerabild zeitlich und räumlich extrapolieren.

Hierbei können sowohl die Winkelgeschwindigkeit von Wolken im Kamerabild als auch die Geschwindigkeit von Wolken über der Erdoberfläche zeitlich und räumlich gemittelt/extrapoliert werden, um eine größere zeitliche und räumliche Abdeckung zu erhalten. Dadurch ist in vorteilhafter weise auch eine Ermittlung der Wolkenhöhe und der Wolkengeschwindigkeit von Wolken möglich, deren Schatten (noch) nicht im unteren Sichtfeld bzw. durch der Erdoberfläche zugeordneten Kameradaten erfasst ist. Durch das zeitliche und räumliche Extrapolieren kann ausgeglichen werden, dass das untere Sichtfeld einen kleinen Ausschnitt und dadurch weniger Wolkenschatten erfasst, als Wolken bzw. Wolkenmerkmale im oberen Teilsichtfeld erfasst werden. Durch das zeitliche und räumliche Extrapolieren ist es nicht zwingend notwendig die Daten einer Wolke und deren Schatten zur Auswertung zu verwenden. Es können auch die Schatten anderer Wolken für die Ermittlung der Wolkenhöhe einer im oberen Teilsichtfeld erfassten bzw. aus in den dem Himmel zugeordneten Kameradaten erfassen Wolke bzw. Wolkenmerkmal herangezogen werden. Diese Auswertung ist weniger genau als wenn die Kameradaten einer Wolke bzw. eines Wolkenmerkmals und deren Schatten zur Auswertung herangezogen werden. Es ist aber eine kontinuierliche Ermittlung der Wolkenhöhen möglich. Bei bekannten Systemen, beispielsweise Lidar-Systemen bzw. Ceilometer-Systemen, werden Wolkenhöhen nur punktuell ermittelt.

Nach einer günstigen Ausgestaltung der Anordnung kann die wenigstens eine Auswerte- und Steuereinrichtung aus den Kameradaten und/oder den ermittelten Parametern wenigstens einen aktuellen und/oder zukünftigen Wert wenigstens einer Komponente der globalen Bestrahlungsstärke spektral und/oder winkelaufgelöst bestimmen. Hierbei kann eine winkelaufgelöste Strahlungsinformation, insbesondere die Radianzentsprechend einer Projektion in die Ebene von Interesse gewichtet und integriert werden. Auch die winkelaufgelöste Information selbst kann für einen Nutzer von Interesse sein, sodass dann die Gewichtung und Integration entfallen kann. Durch eine winkelaufgelöste Erfassung der wenigstens einen Komponente der globalen Strahlung kann die aktuelle und/oder zukünftige Albedo des Erdbodens bestimmt werden. Des Weiteren kann eine aktuelle und/oder zukünftige Bestrahlungsstärke einer auf eine Ebene mit bekannter Neigung zum Erdboden auftreffenden Strahlung, beispielsweise eine Rückseite eines bifazialen Photovoltaik- Moduls, in vorteilhafter Weise bestimmt werden. Eine zusätzliche Unterstützung durch ein Pyranometer oder einen anderen geeigneten Sensor ist möglich. In vorteilhafter Weise sind keine weiteren Sensoren wie Pyranometer erforderlich, um Bestrahlungsstärken der Komponenten der globalen Strahlung spektral und/oder winkelaufgelöst aufzulösen oder Bestrahlungsstärken auf zur Erdoberfläche geneigten Ebenen zu ermitteln. Dadurch können Kosten für die Anordnung reduziert werden.

Nach einer günstigen Ausgestaltung der Anordnung kann wenigstens eine Auswerte- und Steuereinrichtung die wenigstens eine Komponente der globalen Strahlung auf einer geneigten Oberfläche insbesondere einer beliebig orientierten Oberfläche ermitteln. Dadurch kann in vorteilhafter Weise ein optimaler Neigungswinkel von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen ermittelt werden. Alternativ oder zusätzlich kann bei bekannten Neigungswinkeln von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen eine aktuelle und/oder eine zu erwartende Leistung ermittelt werden.

In vorteilhafter Weise kann durch die erfindungsgemäße Anordnung nahezu jeder Parameter, welcher zur Ermittlung und Vorhersage wenigstens einer Komponente der globalen Bestrahlungsstärke erforderlich ist, mit Hilfe der Kameraanordnung an einem Standort berechnet werden. Hierbei sind keine zusätzlichen Sensoren oder weiteren Kameraanordnungen erforderlich. Mit der erfindungsgemäßen Anordnung können zusätzlich Kürzestfristvorhersagen der Solarstrahlung erstellt werden. Zugleich erlaubt dieser Aufbau auch ein verbessertes Monitoring von Solarkraftwerken oder eine Überwachung in anderen Gebieten wie beispielsweise im Bereich von Flughäfen. Es wird eine Verwendung einer Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke vorgeschlagen, wobei Kameradaten in einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung erfasst werden, wobei aus den Kameradaten Informationen zur Solarstrahlung und/ oder zur Position und/oder zu Eigenschaften von Wolken abgeleitet werden.

Es gelten für die Verwendung der Anordnung im Wesentlichen die gleichen Definitionen, wie für die Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke, daher wird auf eine Wiederholung von Definitionen, beispielsweise von den Wolkenmerkmalen, der winkelaufgelösten Reflektanz und/oder der spektralaufgelösten Reflektanz, verzichtet.

In vorteilhafter Weise können bei der Verwendung der Anordnung durch das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung die Vorteile einer Anordnung mit zum Himmel ausgerichteter Himmelskamera, auch als Wolkenkamera bekannt, mit den Vorteilen einer Anordnung mit zum Erdboden ausgerichteten Bodenkamera, auch als Schattenkamera bekannt, kombiniert werden und dadurch die Nachteile der Himmelskamera und der Bodenkamera ausgeglichen werden.

Zur Erzielung der Vorteile werden die Kameradaten, welche dem räumlichen Sichtfeld von zumindest annähernd 360° um die Kameraanordnung zugeordnet sind, ausgewertet. Zudem werden die Kameradaten des Sichtfelds von zumindest annähernd 360° um die Kameraanordnung, in vorteilhafter Weise an einem gemeinsamen Ort zeitgleich erfasst und für diesen Ort ausgewertet. Durch die Kombination der Vorteile kann eine Kameraanordnung mit einem Sichtfeld von zumindest annähernd 360° ausreichen, um genügend Kameradaten zu erfassen, um gewünschte Parameter zuverlässig zu erfassen und/oder vorherzusagen. Dadurch kann auf weitere Kameras an anderen Standorten oder auf weitere Sensoreinheiten verzichtet werden, wodurch Kosten reduziert und ein Aufwand zum Auswerten reduziert werden können.

Ein Vorteil der Auswertung der Kameradaten eines oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. aus der Auswertung von dem Himmel zugeordneten Kameradaten ist, dass ein großer Ausschnitt des Himmels erfasst und überwacht werden kann, insbesondere Wolken können lange bevor deren Schatten in dem überwachten Gebiet eintreffen, erkannt und entsprechende Vorhersagen gemacht werden.

Ein Vorteil der Auswertung der Kameradaten des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung ist bzw. Auswertung der der Erdoberfläche zugeordneten Kameradaten ist, dass manche Parameter, wie eine Wolkengeschwindigkeit über dem Erdboden, genau und direkt aus diesen Kameradaten entnommen werden können. Der überwachbare und erfassbare Ausschnitt des Erdbodens ist hierbei unter anderem abhängig von einer Höhe, in welcher die wenigstens eine Kamera, welche das untere Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst, angeordnet ist.

Um eine zuverlässige Vorhersage treffen zu können, werden Bodenkameras üblicherweise auf hohen Türmen oder Bergrücken angeordnet, um den Ausschnitt des Erdbodens, welchen sie überwachen zu vergrößern. Durch die Höhe können bei diesen Anordnungen Wolken, welche zwischen der Kamera und dem Erdboden schweben, eine Überwachung des Erdbodens verhindern oder erschweren. In vorteilhafter Weise kann eine Vorhersage mit Kameradaten wenigstens einer zum Himmel ausgerichteten Kamera oder mit dem Himmel zugeordneten Kameradaten ermittelt werden, wodurch zur Überwachung des Erdbodens nicht zwingend ein großer Ausschnitt des Erdbodens erforderlich ist, sodass die Kameraanordnung im Gegensatz zu bekannten Schattenkameraanordnungen mit geringerer Höhe über dem Erdboden angeordnet werden kann. Beispielsweise kann die Halteanordnung die wenigstens eine Kamera mit einem Abstand, der üblich für Albedomessungen ist, von 1 -100 m zum Erdboden fixieren. Das Auswahlen des minimalen Abstands der wenigstens einen Kamera zum Erdboden kann vom Erdboden abhängig gemacht sein. An Standorten mit Schnee, ungemähtem Gras oder Ackerpflanzen am Erdboden sollte eine Höhe von beispielsweise 10 m gewählt werden, um Störeinflüsse durch Unebenheiten der Oberfläche zu vermeiden. Es sind bei weniger stark bewachsenen Oberflächen und/oder in Gebieten mit geringem Schneefall auch geringere Höhen möglich.

Des Weiteren kann die Mindesthöhe so ausgewählt werden, dass Gradienten der Intensitäten der RGB- Kanäle der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, sicher identifiziert werden können, sodass die daraus ermittelbaren Parameter zuverlässig und genau bestimmt werden können.

Ein maximaler Abstand der wenigstens einen Kamera, welche zum Erdboden ausgerichtet ist, verhindert, dass tiefliegende Wolken eine Erfassung von Kameradaten erschweren. Dieser maximale Abstand wird in Abhängigkeit vom Einsatzzweck und Einsatzort bestimmt. Sind beispielsweise Wolken in einer Höhe ab 500 m über der Kamera von Interesse, sollte die mindestens eine Kamera in einer Höhe von nicht mehr als 100 m angebracht werden. Wird die Anordnung auch zur Messung der am Erdboden reflektierten Strahlung verwendet, ist ein geringerer Abstand vorteilhaft. Mit zunehmendem Abstand nimmt auch das Gebiet zu, welches in die Messung der am Erdboden reflektierten Strahlung eingeht. Dieses Gebiet kann potenziell durch unerwünschte Einflüsse wie Bäume, reflektierende Objekte, Landnutzung etc. beeinträchtigt werden.

Dadurch, dass die Kameraanordnung maximal in 100 m Höhe fixiert ist, können die Kosten für die Halteanordnung reduziert werden. Zudem kann eine solche feststehende Kameraanordnung einfach und schnell an beliebigen Orten aufgestellt werden, sodass die Kameraanordnung flexibel einsetzbar ist.

Alternativ kann eine Drohne einfach in einer solchen Höhe fliegen, und kann ebenfalls flexibel an mehreren Standorten eingesetzt werden. Dadurch ist auch ein Standortwechsel, nach erfolgter Berechnung der gewünschten Parameter, möglich.

Durch die geringe Höhe der Kameraanordnung oder durch die Verwendung einer Drohne kann eine Eignung eines Geländes beispielsweise für einen Solarpark einfach und kostengünstig überprüft werden. Es ist kein Turm oder ein anderes hohes Gebäude erforderlich.

In vorteilhafter Weise können die Kameradaten durch die erfindungsgemäße Anordnung an einem gemeinsamen Standort ermittelt werden, wodurch das Übertragen von Kameradaten zwischen zwei Standorten und das Umrechnen der Daten von einem Standort auf den anderen entfallen kann. Insbesondere kann durch eine reduzierte Kameraanzahl bzw. eine Reduzierte Kameraanordnungsanzahl ein Aufwand für eine Hardware und dadurch Kosten für die Hardware reduziert werden. Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann sich das Sichtfeld der Kameraanordnung an einem vorgegebenen Ort aus einem ersten Teilsichtfeld und einem zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammensetzten und mit wenigstens einer ersten Kamera Kameradaten im ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera Kameradaten im zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras zu einem räumlichen Sichtfeld von zumindest annähernd 360° ergänzen. In vorteilhafter Weise kann die Zuordnung von Kameradaten zu den Teilsichtfeldern auf diese Weise erleichtert werden.

Insbesondere können mit wenigstens einer ersten Kamera als Himmelskamera Kameradaten im ersten Teilsichtfeld erfasst werden, das in Richtung Himmel ausgerichtet ist und ein oberes Teilsichtfeld bildet. Mit wenigstens einer zweiten Kamera als Bodenkamera können Kameradaten im zweiten Teilsichtfeld erfasst werden, das in Richtung Erdoberfläche ausgerichtet ist und ein unteres Teilsichtfeld bildet.

Alternativ können mit einer 360°-Kamera mit einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung Kameradaten im ersten Teilsichtfeld und Kameradaten im zweiten Teilsichtfeld erfasst werden. Insbesondere kann das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden und das zweite Teilsichtfeld ein in Richtung der Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden. Hierbei kann insbesondere das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden und das zweite Teilsichtfeld kann ein in Richtung der Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden. Durch die Verwendung einer Kamera kann in vorteilhafter Weise auf die Verwendung mehrerer Kameras verzichtet werden. Dadurch kann eine Installation vereinfacht werden. Des Weiteren können durch die reduzierte Anzahl an Kameras durch eine einzige Kamera mögliche Fehlerquellen minimiert werden, beispielsweise bei einer Daten Übertragung, oder durch eine ungenaue Ausrichtung der Kameras und/oder durch die Kalibrationen der entsprechenden Kameras. Das Zuordnen der Kameradaten zum oberen oder unteren Teilsichtfeld kann bei der Auswertung Kameradaten erfolgen.

In vorteilhafter Weise können die Kameradaten der jeweiligen Kameras einfach dem oberen Teilsichtfeld oder dem unteren Teilsichtfeld zugeordnet werden. Im Gegensatz zu bekannten Anordnungen mit Bodenkameras überwacht die erfindungsgemäße Anordnung nur einen kleinen Ausschnitt des Erdbodens, so dass die Bodenkamera bzw. die Kamera, welche dem Erdboden zugeordnete Kameradaten erfasst, mit geringerem Abstand zum Erdboden angeordnet werden kann als bei üblichen Bodenkameraanordnungen.

Bei einer Ausführung der Kameraanordnung mit einer Himmelskamera und einer Bodenkamera können die beiden Kameras am gleichen Standort mit entgegengesetzter Ausrichtung installiert werden.

In vorteilhafter Weise kann bei der erfindungsgemäßen Verwendung der Anordnung ein Aufwand für die Anschaffung und für den Betrieb einer Hardware reduziert werden, da die Vorteile einer Wolkenkameraanordnung und einer Schattenkameraanordnung miteinander kombiniert werden können. Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus den erfassten Kameradaten dem Himmel zugeordnete Kameradaten entnommen werden, und aus diesen dem Himmel zugeordneten Kameradaten wenigstens einen der folgenden Parameter: eine direkte Bestrahlungsstärke und/oder eine diffuse Strahlung und/oder eine globale Bestrahlungsstärke und/oder wenigstens eine Position von Wolkenmerkmalen und/oder von Wolken bedeckte Himmelsbereiche und/oder aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild ermittelt werden.

Hierbei können aus den erfassten Kameradaten des oberen Teilsichtfelds Bildmerkmale bzw. aus den dem Himmel zugeordneten Kameradaten, welche der Position der Wolke oder den Positionen der Wolken entsprechen, erkannt und eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti =to und t2=to+At ermittelt werden.

Die Verschiebung kann durch Erstellung von Differenzbildern di eines Farbkanals der vorhandenen Farbkanälen, dargestellt werden. Hierbei kann ein erstes Differenzbild di aus einem Kamerabild zu einem ersten Zeitpunkt ti=to und einen Kamerabild zu einem zweiten Zeitpunkt t2=to+At erstellt werden. Zusätzlich kann ein zweites Differenzbild d2 aus dem Kamerabild zum zweiten Zeitpunkt t2=to+2At und einem Kamerabild zu einem dritten Zeitpunkt ts=to+2At erstellt werden. Die Differenzbilder di und d2 können entzerrt werden. Unter dem Entzerren wird hierbei verstanden, dass die ermittelten Werte in eine horizontale Ebene mit unbekannter Höhe über der Kamera projiziert werden. Aus dieser Projektion resultieren Orthobilder 01 und 02. Aus den Orthobildern 01 und 02 werden Bildmerkmale und deren Position identifiziert. In einem weiteren Schritt können die Orthobilder 01 und 02 in binäre Bilder bi , b2 umgewandelt werden, wobei beispielsweise jeweils 2% der Pixel den Wert 1 und die übrigen 98% der Pixel den Wert 0 erhalten. Diese 2% der Pixel weisen betragsmäßig die größte Differenz auf. Dadurch können starke Anstiege oder Abfälle von diesem Farbkanal zwischen den Zeitpunkten to, to+At, to+2At ermittelt werden. In einem weiteren Schritt können über beispielsweise eine Kreuzkorrelation diese binären Bilder insgesamt verglichen oder in einem verfeinerten Verfahren können die Bilder bereichsweise verglichen werden.

Die Verschiebung Am, An entspricht der Verschiebung, für welche die Kreuzkorrelation zwischen den binären Orthobildern 01 und 02 maximal wird. Dieses Verfahren kann für wenigstens einen Farbkanal durchlaufen werden. Es können auch mehrere Farbkanäle auf diese Art ausgewertet werden. Des Weiteren können weitere Verfeinerungen und geeignete Anpassungen in dem Verfahren zur Ermittlung der Verschiebung Am, An der Wolke bzw. der Wolken vorgenommen werden.

In einem alternativen Verfahren lassen sich Bildmerkmale und deren Verschiebung Am, An auch auf andere Weise beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren ermitteln.

Mit Hilfe des bekannten Zeitversatzes t 2 - tiund Am, An lässt sich dann die Winkelgeschwindigkeit in beiden Richtungen x und y berechnen als:

Aus der Winkelgeschwindigkeit kann die Geschwindigkeit der Wolke über dem Erdboden ermittelt werden

^m/s ^pix/s^ tun 9 H 2 I N Hierbei entspricht der Winkel 0 dem maximalen Zenithwinkel bis zu dem das obere räumliche Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung ausgewertet wird. N entspricht dem Durchmesser in Pixeln des kreisförmigen Bildbereichs, welcher den Himmelsbereich mit einem Zenithwinkel kleiner oder gleich 0 darstellt. Der Winkel 0 und der Parameter N lassen sich aus dem Kamerabild des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. aus den dem Himmel zugeordneten Kameradaten bestimmen. v P ix/s entspricht der ermittelten Winkelgeschwindigkeit der Wolke. H2 entspricht der Höhe der über die Kameraanordnung bzw. über der zum Himmel ausgerichteten wenigstens einen Kamera der Kameraanordnung projizierten Wolke. Diese ist bei bekannten Wolkenkameraanordnungen nicht bekannt und wird durch Messdaten weiterer Messanordnungen teils an anderen Orten bestimmt.

Die Grundlage zur Ermittlung der direkten Strahlung und/oder der diffusen Strahlung bilden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera, welche das obere Teilsichtfeld oder Bereiche des oberen Teilsichtfelds überwacht. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera ausgelesen werden.

In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB-Kanäle des Kamerabildes die Strahlung (Radianz) berechnet, welche aus einem bestimmten Himmelsbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasiertes Lernmodell (Machine-Learning-Modell) ersetzt werden. Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das physikalische Kameramodell ersetzen oder ergänzen oder nachahmen oder selbständig anpassen.

In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten. Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert wird oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt.

In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel erfolgen. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar. Ein Winkelgrad des Azimuthwinkels kann von Süden über Westen, Norden und Osten angegeben werden.

Beim Zuordnen der Bildbereiche zu Himmelsbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Alternativ kann die Zuordnung von Bildbereichen zu Himmelsbereichen über Azimuth- und ZenithwinkelA/ertikalwinkel grob erfolgen. Beispielsweise ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasiertes Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden. In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.

In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar.

Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera, möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen, teilweise zusammengefasst oder umgeschrieben werden. Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen.

In einem weiteren Schritt des Auswertungsverfahrens kann aus der Strahlung (Radianz), welche aus verschiedenen Himmelsbereichen empfangen wird, beispielsweise durch eine Projektion eine diffuse und/ oder direkte Strahlung in einer beliebigen horizontalen oder zum Erdboden geneigten Ebene einschließlich einer Ebene die dem Erdboden zugewandt ist, bestimmt werden. Dabei kann die Zuordnung der Bildbereiche zu Himmelsbereichen und eine Integration über Bildbereiche/ Himmelsbereiche zum Einsatz kommen. Bei Bedarf kann auch die globale Bestrahlungsstärke in geneigten und auch in zum Erdboden gerichteten Ebenen ermittelt werden.

In einer alternativen Ausführung des Verfahrens können die Teilschritte (Anwenden eines physikalischen Kameramodells, Zuordnung von Bildbereichen zu Himmelsbereichen, Anwendung physikalisch motivierter Korrekturen, Projektion in eine beliebige Ebene) zur Bestimmung von direkter und diffuser Strahlung in einer beliebigen Ebene teilweise oder als Ganzes durch ein Machine-Learning Modell nachgeahmt werden.

In einer einfachsten Ausführung der Anordnung können durch die Auswertung der Intensitäten der RGB-Kanäle aus dem oberen Teilsichtfeld bzw. aus dem Erdboden zugeordneten Kameradaten Werte ermittelt werden, welche der Summe aus diffuser Strahlung und direkter Strahlung entsprechen. Erweiterungen wären möglich, sodass eine Ermittlung separater Werte für diffuse Strahlung und direkte Strahlung ermöglicht werden kann.

In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare- Ressource am Standort beurteilt werden. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten sowie einer Auswerte- und Steuereinrichtung ermittelt werden. Es sind keine weiteren Sensoren oder ähnliches erforderlich.

In vorteilhafter Weise kann die Kenntnis der von Wolken bedeckten Bereiche des Himmels im oberen Teilsichtfeld zur weiteren Beurteilung der ermittelten Strahlung herangezogen werden. Beispielsweise kann die diffuse Strahlung durch Wolken zunehmen und eine direkte Strahlung kann durch Wolken abnehmen. Bei einer anderen Witterung können am Standort andere Strahlungsbedingungen herrschen. Die aktuellen und die zukünftigen Strahlungsbedingungen können durch die Ermittlung der Wolkenpositionen und der Geschwindigkeit der Wolken zumindest teilweise ermittelt werden.

Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus den erfassten Kameradaten des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten, eine an der Erdoberfläche reflektierte Strahlung und/oder eine Albedo der Erdoberfläche und/oder wenigstens eine Wolkenschattenposition und/oder aus den Wolkenschattenpositionen zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche ermittelt werden.

Die Geschwindigkeit einer Wolke oder von mehreren Wolken über dem Erdboden kann, aus den Kamerabildern des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten ermittelt werden.

Das korrespondierende Auswertungsverfahren ist ähnlich dem zur Bestimmung der Winkelgeschwindigkeit der Wolken aus Bildern des oberen Teilsichtfelds bzw. aus den dem Himmel zugeordneten Kameradaten.

In einem alternativen Verfahren lassen sich Bildmerkmale, welche der Position wenigstens eines Wolkenschattens entsprechen, und deren Verschiebung Am, An auch auf andere Weise, beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren, ermitteln. In einem möglichen Verfahren können Bildmerkmale, welche der Position eines Wolkenschattens oder den Positionen mehrerer Wolkenschatten entsprechen, erkannt und eine Verschiebung Am, An von Bildmerkmalen im Kamerabild in Richtung einer x-Achse und einer y-Achse zwischen den Zeitpunkten ti= to, t2=to+At, ts= to+2At ermittelt werden.

Die Verschiebung kann durch Erstellung von Differenzbildern di eines Farbkanals der vorhandenen Farbkanälen dargestellt werden. Hierbei kann ein erstes Differenzbild di aus einem Kamerabild zu einem ersten Zeitpunkt ti=to und einen Kamerabild zu einem zweiten Zeitpunkt t2=to+At erstellt werden. Zusätzlich kann ein zweites Differenzbild d2 aus dem Kamerabild zum zweiten Zeitpunkt t2=to+At und einem Kamerabild zu einem dritten Zeitpunkt ts=to+2At erstellt werden. Die Differenzbilder di und d2 können entzerrt werden. Unter dem Entzerren wird hierbei verstanden, dass die Bilder mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes sowie mit Hilfe geometrischer Kalibrationen der Kamera in Erdbodenebene unter der die Kamera projektiert werden. Aus dieser Projektion resultieren Orthobilder 01 und 02. Aus den Orthobildern 01 und 02 werden Bildmerkmale und deren Position identifiziert. Hierbei ist die Projektionshöhe, im Gegensatz zur Auswertung des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung, bekannt. In den entsprechenden Orthobildern entspricht dadurch jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets. Differenzbilder können aus den in Graustufen umgerechneten Orthobildern berechnet werden. Anstellte von Graustufen sind auch andere Ausgaben möglich.

Wie bei der Ermittlung der Winkelgeschwindigkeit können Differenzbilder in binäre Bilder umgewandelt werden. Hierbei können beispielsweise jeweils 2% der Pixel den Wert 1 und die übrigen 98% der Pixel den Wert 0 erhalten. Diese 2% der Pixel weisen betragsmäßig die größte Differenz auf. Dadurch können starke Anstiege oder Abfälle von diesem Farbkanal zwischen den Zeitpunkten to, to+At, to+2At ermittelt werden. In einem weiteren Schritt können über, beispielsweise eine Kreuzkorrelation, diese binären Bilder insgesamt verglichen, oder in einem verfeinerten Verfahren können die Bilder bereichsweise verglichen werden.

Die Verschiebung Am, An der Bildpixel entspricht der Verschiebung für welche die Kreuzkorrelation zwischen den binären Orthobildern 01 und 02 maximal wird. Die Verschiebung der Am, An der Bildpixel kann einer entsprechenden Verschiebung Ax, Ay der Wolkenschatten im überwachten Gebiet zugeordnet werden. Dieses Verfahren kann für wenigstens einen Farbkanal durchlaufen werden. Es können auch mehrere Farbkanäle auf diese Art ausgewertet werden. Des Weiteren können weitere Verfeinerungen und geeignete Anpassungen in dem Verfahren zur Ermittlung der Verschiebung Am, An der Bildpixel des Wolkenschattens bzw. der Wolkenschatten vorgenommen werden.

Der Betrag dieser „absoluten“ Geschwindigkeit der Wolkenschatten über dem Erdboden wird dann berechnet als wobei der Skalierungsfaktor k sc (Einheit m/pixel) die bekannte Seitenlänge eines Bildpixels in Metern angibt.

Da die Geschwindigkeit der Wolkenschatten über dem Erdboden auch der Geschwindigkeit der korrespondierenden Wolke über dem Erdboden entspricht, sind in vorteilhafter Weise zur Ermittlung der Wolkengeschwindigkeit über dem Erdboden keine zwei Himmelskameras, welche unterschiedliche obere Teilsichtfelder überwachen, erforderlich, da die Wolkengeschwindigkeit aus dem einen unteren Teilsichtfeld bzw. die der Erdoberfläche zugeordneten Kameradaten einfach ermittelt werden kann. Zudem liefert die Auswertung des unteren Teilsichtfelds mehr zusätzliche Informationen, als die Auswertung eines weiteren oberen Teilsichtfelds. Zudem kann auf die Verwendung von Schätzwerten bei der Berechnung der Wolkengeschwindigkeit verzichtet werden, wodurch ein zuverlässiger und genauer Wert für die Wolkengeschwindigkeit über dem Erdboden berechnet werden kann.

Unter der Wolkengeschwindigkeit über dem Erdboden wird im Folgenden eine Geschwindigkeit der Wolken im Vergleich zu gedachten Fixpunkten am Erdboden verstanden. Aus der ermittelten Wolkengeschwindigkeit und der aktuellen Wolkenposition, kann in vorteilhafter Weise eine zukünftige Wolkenposition und eine entsprechende Veränderung der globalen Bestrahlungsstärke in einem vorgegeben Bereich ermittelt bzw. vorhergesagt werden.

Die an der Erdoberfläche reflektierte Strahlung und/oder die Albedo des Erdbodens kann ebenfalls ermittelt werden. Die Ermittlung, der am Erdboden reflektierten Strahlung verläuft ähnlich, wie die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung.

Als Grundlage werden die Intensitätswerte der RGB-Kanäle der wenigstens einen Kamera im unteren Teilsichtfeld bzw. die der Erdoberfläche zugeordneten Kameradaten ausgewertet. Diese Intensitätswerte können direkt aus der korrespondierenden Kamera oder aus den der Erdoberfläche zugeordneten Kameradaten ausgelesen werden.

In einem möglichen Auswertungsverfahren wird mit einem physikalischen Kameramodel aus den Intensitätswerten der RGB-Kanäle des Kamerabildes die Strahlung berechnet, welche aus einem bestimmten Erdbodenbereich empfangen wird. Zusätzlich können physikalisch motivierte Korrekturen angewendet werden, um die Berechnung zu verbessern. In einem alternativen Ausführungsbeispiel kann das physikalische Kameramodell durch ein rein statistisches maschinenbasiertes Lernmodell (Machine-Learning-Modell) ersetzt werden. Insbesondere kann eine Architektur unter Verwendung eines Convolutional Neural Network mit anschließendem Fully Connected Neural Network bei geeignetem Training das Kameramodell ersetzen oder ergänzen oder nachahmen oder selbständig anpassen.

In einem Schritt des Auswertungsverfahrens mit Grundannahmen des physikalischen Kameramodels kann eine für Kameras übliche Gamma- Korrektur umgekehrt werden, um aus dem RGB-Bild der jeweiligen Kamera ein linearisiertes RGB-Bild zu erhalten. Dieser Schritt kann entfallen, wenn die entsprechende Kamera keine Gamma-Korrektur ausführt, sodass die Gamma-Korrektur nicht nachträglich umgekehrt werden muss. Dies kann beispielsweise der Fall sein, wenn die Gamma-Korrektur der entsprechenden Kamera deaktiviert ist oder die Kamera aus anderen Gründen keine Gamma-Korrektur ausführt.

In einem weiteren Schritt des Auswertungsverfahrens kann beispielsweise eine pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen mit Hilfe des bekannten Höhenprofils der Erdoberfläche des überwachten Gebietes erfolgen. Hierbei kann jeder Bildpixel einem quadratischen Teilbereich des überwachten Gebiets entsprechen.

Alternativ kann die pixelweise Zuordnung von Bildbereichen zu Erdbodenbereichen aus der Wolkengeschwindigkeitsermittlung übernommen werden. Anstelle einer pixelweisen Zuordnung sind auch andere Zuordnungen vorstellbar. Beim Zuordnen der Bildbereiche zu Erdbodenbereichen können geometrische Kalibrationen der entsprechenden Kamera und darauf aufbauende Transformationen angewendet werden. Des Weiteren ist eine Zuordnung ohne Verwendung von Kalibrationen vorstellbar. Die Kalibrationen und darauf aufbauende Transformationen können als ein maschinenbasierten Lernmodell (Machine-Learning-Modell) umgesetzt sein und fortlaufend verbessert werden.

In einem weiteren Schritt des Auswertungsverfahrens können Intensitäten der Farbkanäle des linearisierten RGB-Bildes gewichtet und summiert werden. Die Gewichtung kann eine möglichst gleichmäßige Sensitivität der entsprechenden Kamera im sichtbaren Wellenlängenbereich erzielen.

In einem weiteren Schritt des Auswertungsverfahrens kann eine Multiplikation mit einer Breitbandkorrektur, welche Anteile der breitbandigen Solarstrahlung berücksichtigt, welche aus dem nicht-sichtbaren Wellenlängenbereich stammen, erfolgen. Des Weiteren ist eine Multiplikation mit einem Kalibrationsfaktor, welcher die Sensitivität der Kamera berücksichtigt, vorstellbar.

Zudem ist eine Anwendung von wenigstens einer Korrektur zur Berücksichtigung von Störeinflüssen auf die Messung, wie beispielsweise eine Linsenbrechung, Bildsättigung, Einfluss der Belichtungssteuerung der entsprechenden Kamera, möglich. Zusätzlich oder alternativ können angewendete Korrekturfaktoren, wie beispielsweise die Breitbandkorrektur, der Kalibrationsfaktor, die Korrektur von Störeinflüssen, teilweise zusammengefasst oder umgeschrieben werden.

Des Weiteren können diese Korrekturen ersetzt oder ergänzt werden durch statistisch bestimmte Korrekturen, beispielsweise über maschinenbasiertes Lernen (Machine Learning), insbesondere basierend auf Bildmerkmalen. In einem weiteren Schritt des Auswertungsverfahrens kann bei Bedarf die auf einer Ebene auftreffende, am Erdboden reflektierte Strahlung auch für geneigte Ebenen und auch für zum Erdboden gerichteten Ebenen ermittelt werden.

In einer alternativen Ausführung des Verfahrens können die Teilschritte zur Bestimmung der am Erdboden reflektierten Strahlung, beispielsweise das Anwenden eines physikalischen Kameramodells und/oder die Zuordnung von Bildbereichen zu Himmelsbereichen und/oder die Anwendung physikalisch motivierter Korrekturen und/oder die Projektion in eine beliebige Ebene, teilweise oder als Ganzes durch ein Machine-Learning Modell nachgeahmt werden.

Des Weiteren kann in einem weiteren Schritt aus der ermittelten reflektierten Strahlung und der ermittelten direkten Strahlung und der ermittelten diffusen Strahlung die aktuelle Albedo des Erdbodens bzw. eine detailliertere Reflektanz des Erdbodens abgeleitet werden.

In vorteilhafter Weise ist durch die Auswertung der Kameradaten des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. der der Erdoberfläche zugeordneten Kameradaten und des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. der dem Himmel zugeordneten Kameradaten die Ermittlung der aktuellen, beispielweise witterungsbedingten, jahreszeitbedingten oder vegetationsbedingten Albedo bzw. Reflektanz des Erdbodens im überwachten Gebiet möglich. Dadurch kann auf das Zurückgreifen auf einen weniger genauen Schätzwert der Albedo bzw. Reflektanz des Erdbodens verzichtet werden. Wodurch eine bessere Einschätzung der solaren Strahlung in diesem Gebiet ermöglicht werden kann. In vorteilhafter Weise kann die Reflektanz bzw. die Albedo des Erdbodens und/oder die reflektiere Strahlung und/oder direkte Strahlung und/oder die diffuse Strahlung winkelaufgelöst und spektral aufgelöst angegeben werden.

Zusätzlich kann aus der Strahlung aus den verschiedenen Bereichen des Himmels und aus der winkel- und spektral aufgelösten Reflektanz des Erdbodens bzw. der Albedo die globale und diffuse Bestrahlungsstärke in beliebigen geneigten Ebenen berechnet werden, einschließlich solcher Ebenen, die zum Erdboden zeigen. Dadurch kann insbesondere für bifaziale Photovoltaik-Module die Strahlung auf der Modulrückseite für jedes Modul individuell, und unter Berücksichtigung der typischerweise komplexen Geometrie der Kraftwerke, berechnet werden. Dieser Aufbau kann zusätzlich durch die Kombination mit einem Pyranometer unterstützt werden.

Die Reflektanz entspricht hierbei dem Reflexionsgrad der Oberfläche. Der Reflexionsgrad gibt das Verhältnis einer von einer Oberfläche reflektierten Strahlungsleistung zu einer auf die Oberfläche treffende Strahlungsleistung an.

Unter einer winkelaufgelösten Reflektanz wird eine Information im Sinne einer bidirektionalen Reflexionsverteilungsfunktion beziehungsweise daraus ableitbare Größen wie eine detaillierte Zusammensetzung der Albedo, insbesondere eine Black-Sky Albedo und White-Sky Albedo, verstanden.

Unter einer spektralaufgelösten Reflektanz wird das Verhältnis aus von einer Oberfläche reflektierten Strahlungsleistung bei einer bestimmten Wellenlänge bzw. in einem bestimmten Wellenlängenbereich und der auf die Oberfläche treffende Strahlungsleistung mit dieser bestimmten Wellenlänge bzw. in diesem Wellenlängenbereich, verstanden. Des Weiteren kann in vorteilhafter Weise durch die Kameradaten des unteren Sichtfelds eine Verschmutzung oder Beschädigung einer Photovoltaikanlage und anderer solartechnischer Kollektoren überwacht werden, um bei Bedarf eine Reinigung oder Reparatur veranlassen zu können.

In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung zusammen mit der reflektierten Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare Ressource am Standort beurteilt werden. Hierbei sind keine weiteren Sensoren oder Sensoreinheiten, wie beispielsweise Pyranometer, erforderlich. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten ermittelt werden.

Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus der Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche und der Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild eine Höhe der Wolken ermittelt werden.

Die Berechnung der Wolkengeschwindigkeit über dem Erdboden kann im oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung basierend auf der Winkelgeschwindigkeit v p(-x / s erfolgen:

^m/s ^pixei/s^ täfl Q H2 /

Daraus ergibt sich für die Höhe H2 der Wolke:

Hierbei entspricht der Winkel 0 dem maximalen Zenithwinkel bis zu dem das obere Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung ausgewertet wird. N entspricht dem Durchmesser in Pixeln des kreisförmigen Bildbereichs, welcher den Himmelsbereich mit einem Zenithwinkel kleiner oder gleich 0 darstellt.

Der Winkel 0 und der Parameter N lassen sich aus dem Kamerabild des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bestimmen. v m /s entspricht der ermittelten Geschwindigkeit der Wolke über dem Erdboden und v P ix/s entspricht der ermittelten Winkelgeschwindigkeit der Wolke. H2 entspricht der Höhe der über die Kameraanordnung bzw. über der zum Himmel ausgerichteten wenigstens einen Kamera der Kameraanordnung projizierten Wolke. Da der Abstand der wenigstens einen Kamera zum Erdboden bekannt ist, kann aus dem bekannten Höhenprofil des überwachten Gebietes, der aktuellen Wolkenposition und der Höhe, der über die Kamera projizierten Wolke, die tatsächliche Höhe der Wolke über dem Erdboden an ihrer aktuellen Position berechnet werden. Eine Verfeinerung der Berechnungen ist möglich.

Insbesondere kann mit der Höhe der Wolken, der aktuellen Position der Wolken und der Wolkengeschwindigkeit über der Erdoberfläche eine zukünftige Wolkenposition ermittelt werden. Daraus kann eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke in einem vorgegebenen Gebiet abgeschätzt bzw. berechnet und somit vorausgesagt werden. Dadurch können in vorteilhafter Weise genauere Kürzestfrist- Vorhersagen der Solarstrahlung mit nur einer Kameraanordnung am selben Standort erstellt werden, wobei die wenigstens eine Kamera nur wenige Meter über dem Erdboden installiert ist. In vorteilhafter Weise kann dadurch frühzeitig auf Verschattungen oder eine zu erwartende Fluktuation der Leistung der Solaranlage reagiert werden. In vorteilhafter Weise können die Kameradaten an einem gemeinsamen Standort ermittelt werden, wodurch eine Wartung und ein Betrieb der erfindungsgemäßen Anordnung erleichtert und kostengünstiger gestaltet werden können. Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann die Geschwindigkeit von Wolken über der Erdoberfläche und die Winkelgeschwindigkeit von Wolken im Kamerabild zeitlich und/oder räumlich extrapoliert werden.

Hierbei können sowohl Winkelgeschwindigkeit von Wolken im Kamerabild als auch die Geschwindigkeit von Wolken über der Erdoberfläche zeitlich und räumlich gemittelt und/oder extrapoliert werden, um eine größere zeitliche und räumliche Abdeckung zu erhalten. Dadurch ist in vorteilhafter Weise auch eine Ermittlung der Wolkenhöhe und der Wolkengeschwindigkeit von Wolken möglich, deren Schatten (noch) nicht im unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst werden. Durch das zeitliche und räumliche Extrapolieren kann ausgeglichen werden, dass das untere Sichtfeld einen kleinen Ausschnitt und dadurch weniger Wolkenschatten erfasst, als Wolken im oberen Teilsichtfeld erfasst werden. Durch das zeitliche und räumliche Extrapolieren ist es nicht zwingend notwendig, die Daten einer Wolke und deren Schatten zur Auswertung zu verwenden. Es können auch die Schatten anderer Wolken für die Ermittlung der Wolkenhöhe einer im oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfassten Wolke herangezogen werden. Diese Auswertung ist weniger genau, als wenn die Kameradaten einer Wolke und deren Schatten zur Auswertung herangezogen werden. Es ist aber eine kontinuierliche Ermittlung der Wolkenhöhen möglich. Bei bekannten Systemen, beispielsweise Lidar-Systemen bzw. Ceilometer-Systemen, werden Wolkenhöhen nur punktuell ermittelt.

Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann aus den Kameradaten und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Bestrahlungsstärke spektral und/oder winkelaufgelöst bestimmt werden. Hierbei kann eine winkelaufgelöste Strahlungsinformation, insbesondere die Radianz, entsprechend einer Projektion in die Ebene von Interesse gewichtet und integriert werden.

Auch die winkelaufgelöste Information kann selbst für einen Nutzer von Interesse sein, sodass dann die Gewichtung und Integration entfallen kann. Durch eine winkelaufgelöste Erfassung der wenigstens einen Komponente der globalen Bestrahlungsstärke kann die aktuelle und/oder zukünftige Albedo des Erdbodens bestimmt werden. Des Weiteren kann eine aktuelle und/oder zukünftige Bestrahlungsstärke einer auf eine Ebene mit bekannter Neigung zum Erdboden auftreffenden Strahlung, beispielsweise eine Rückseite eines bifazialen Photovoltaik-Moduls, in vorteilhafter Weise bestimmt werden. Eine zusätzliche Unterstützung durch ein Pyranometer oder einen anderen geeigneten Sensor ist möglich. In vorteilhafter Weise sind keine weiteren Sensoren, wie Pyranometer erforderlich, um Bestrahlungsstärken der Komponenten der globalen Bestrahlungsstärke spektral und/oder winkelaufgelöst aufzulösen oder Bestrahlungsstärken auf zur Erdoberfläche geneigten Ebenen zu ermitteln.

Nach einer günstigen Ausgestaltung der Verwendung der Anordnung kann die wenigstens eine Komponente der globalen Bestrahlungsstärke auf einer geneigten, insbesondere an einer beliebig orientierten Oberfläche ermittelt werden. Dadurch kann in vorteilhafter Weise ein optimaler Neigungswinkel von Solarmodulen unteranderem von bifazialen Photovoltaik-Modulen ermittelt werden. Alternativ oder zusätzlich kann bei bekannten Neigungswinkeln von Solarmodulen unteranderem von bifazialen Photovoltaik-Modulen eine aktuelle und/oder eine zu erwartende Leistung ermittelt werden. Es wird ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke vorgeschlagen, wobei Kameradaten an einem gemeinsamen Standort in einem Sichtfeld von zumindest annähernd 360° um eine Kameraanordnung erfasst werden. Aus den Kameradaten werden Informationen zur Solarstrahlung und/oder zu Position und/oder Eigenschaften von Wolken abgeleitet.

Insbesondere kann das Verfahren ein computerimplementiertes Verfahren sein.

Es gelten für das Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke im Wesentlichen die gleichen Definitionen, wie für die Verwendung der Anordnung und für die Anordnung zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke.

Daher wird an dieser Stelle auf eine Wiederholung der Definition von beispielsweise den Wolkenmerkmalen, der winkelaufgelösten Reflektanz und der spektralaufgelösten Reflektanz, verzichtet.

Da die Auswertungsschritte des Verfahrens im Wesentlichen mit den Auswertungsschritten der Anwendung der Vorrichtung übereinstimmen, wird im Folgenden ebenfalls auf eine Wiederholung verzichtet und für die Details der Verfahrensschritte auf die Beschreibung der Verwendung der Anordnung verwiesen. Auch eine weitere Auswertung ist mit Auswertungsergebnissen mit anderen Zeitstempeln oder mit Auswerteergebnissen von einem anderen Farbkanal möglich. Hierbei können in vorteilhafter Weise Auswertungsergebnisse des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. von den dem Himmel zugeordneten Kameradaten und Auswertungsergebnisse des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung bzw. von den der Erdoberfläche zugeordneten Kameradaten miteinander kombiniert werden.

Dadurch kann zur Ermittlung der meisten Parameter zur Ermittlung wenigstens einer Komponente einer globalen Bestrahlungsstärke in vorteilhafter Weise auf das Zurückgreifen von Schätzwerten oder von Werten aus externen Datenquellen verzichtet werden, wodurch die Ermittlung der Parameter für einen vorgegeben Standort genauer und zuverlässiger ist, als mit üblichen Verfahren zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke, welche auf Schätzwerte und auf Werte aus externen Datenquellen zurückgreifen.

In vorteilhafter Weise können bei dem Verfahren durch das Auswerten des zumindest annähernd 360° Sichtfeld der Kameraanordnung die Vorteile einer Anordnung mit zum Himmel ausgerichteter Himmelskamera, auch als Wolkenkamera bekannt, mit den Vorteilen einer Anordnung mit zum Erdboden ausgerichteten Bodenkamera, auch als Schattenkamera bekannt, kombiniert werden und die Nachteile der Himmelskamera und der Wolkenkamera ausgeglichen werden.

Zur Erzielung der Vorteile werden die Kameradaten, welche dem jeweiligen Teilsichtfeld zugeordnet sind, ausgewertet. Zudem werden die Kameradaten der jeweiligen Teilsichtfelder in vorteilhafter Weise an einem gemeinsamen Ort insbesondere zeitgleich erfasst. Es können Bildmerkmale eines oder mehrerer Farbkanäle des jeweiligen Teilsichtfelds, welche durch Wolken und Wolkenschatten und/oder durch eine auf das wenigstens eine Objektiv der wenigstens eine Kamera einfallende Strahlung entstehen, ausgewertet werden.

Des Weiteren können die Intensitätswerte eines oder mehrerer Farbkanäle des jeweiligen Teilsichtfelds ausgewertet werden. Die Auswertungsergebnisse einzelner Farbkanäle können mit Auswertungsergebnissen anderer Farbkanäle oder Auswertungsergebnissen mit anderen Zeitstempeln verglichen werden.

Durch die Kombination der Vorteile kann eine Kameraanordnung mit zumindest annähernd 360° räumlichem Sichtfeld ausreichen, um genügend Kameradaten zu erfassen, um gewünschte Parameter zuverlässig zu erfassen und/oder vorherzusagen. Dadurch kann auf das Auswerten von Kameradaten weiterer Kameras an anderen Standorten oder auf das Auswerten von Messdaten weiterer Sensoreinheiten verzichtet werden, wodurch Kosten reduziert und ein Aufwand zum Auswerten reduziert werden können.

Ein Vorteil der Auswertung der Kameradaten eines oberen Teilsichtfelds ist, dass ein großer Ausschnitt des Himmels erfasst und überwacht werden kann, insbesondere Wolken können lange bevor deren Schatten in dem überwachten Gebiet eintreffen, erkannt und entsprechende Vorhersagen gemacht werden.

Ein Vorteil der Auswertung der Kameradaten eines unteren Teilsichtfelds ist bzw. der der Erdoberfläche zugeordneten Kameradaten ist, dass manche Parameter, wie eine Wolkengeschwindigkeit über dem Erdboden, genau und direkt aus diesen Kameradaten entnommen werden können. Der überwachbare und erfassbare Ausschnitt des Erdbodens ist hierbei unteranderem abhängig von einer Höhe, in welcher die wenigstens eine Kamera, welche das untere Teilsichtfeld erfasst, angeordnet ist.

In vorteilhafter Weise kann eine Vorhersage mit Kameradaten des oberen Teilsichtfelds bzw. aus dem Himmel zugeordneten Kameradaten ermittelt werden, wodurch zur Überwachung des Erdbodens nicht zwingend ein großer Ausschnitt des Erdbodens erforderlich ist, so dass die Kameraanordnung, im Gegensatz zu bekannten Schattenkameraanordnungen mit geringerer Höhe über dem Erdboden angeordnet werden kann.

Nach einer günstigen Ausgestaltung des Verfahrens kann sich das Sichtfeld der Kameraanordnung an einem vorgegebenen Ort aus einem ersten Teilsichtfeld und einem zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung zusammensetzten. Hierbei können mit wenigstens einer ersten Kamera Kameradaten im ersten Teilsichtfeld erfasst werden und mit wenigstens einer zweiten Kamera Kameradaten im zweiten Teilsichtfeld erfasst werden, wobei sich die beiden Teilsichtfelder der Kameras zu einem Sichtfeld von zumindest annähernd 360° ergänzen.

Nach einer günstigen Ausgestaltung des Verfahrens können mit der wenigstens einen ersten Kamera als Himmelskamera Kameradaten im ersten Teilsichtfeld erfasst werden, das in Richtung Himmel ausgerichtet ist, und ein oberes Teilsichtfeld bildet. Mit der wenigstens einen zweiten Kamera als Bodenkamera können Kameradaten im zweiten Teilsichtfeld erfasst werden, das in Richtung Erdoberfläche ausgerichtet ist, und ein unteres Teilsichtfeld bildet. Alternativ können mit einer 360°-Kamera mit Sichtfeld von zumindest annähernd 360° um die Kameraanordnung Kameradaten im ersten Teilsichtfeld erfasst und Kameradaten KDE im Teilsichtfeld erfasst werden. Insbesondere kann das erste Teilsichtfeld ein in Richtung Himmel ausgerichtetes oberes Teilsichtfeld bilden und das zweite Teilsichtfeld kann ein in Richtung der Erdoberfläche ausgerichtetes unteres Teilsichtfeld bilden.

Hierbei können in vorteilhafter Weise die Kameradaten der jeweiligen Kameras einfach dem oberen Teilsichtfeld oder dem unteren Teilsichtfeld zugeordnet werden. In vorteilhafter Weise kann bei dem erfindungsgemäßen Verfahren ein Aufwand für die Anschaffung und für den Betrieb einer Hardware reduziert werden, da die Vorteile einer Wolkenkameraanordnung und einer Schattenkameraanordnung miteinander kombiniert werden können.

Nach einer günstigen Ausgestaltung des Verfahrens kann aus den erfassten Kameradaten dem Himmel zugeordnete Kameradaten entnommen werden und aus diesen dem Himmel zugeordneten Kameradaten wenigstens einer der folgenden Parameter: eine direkte Strahlung und/oder eine diffuse Strahlung und/oder eine globale Bestrahlungsstärke und/oder von Wolken bedeckte Himmelsbereiche und/oder wenigstens eine Wolkenposition und/oder aus Wolkenpositionen und/oder aus der Position von Wolkenmerkmalen im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild ermittelt werden.

In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden, und eine Solare Ressource am Standort beurteilt werden. Die Strahlung kann nur aufgrund von Kameradaten ermittelt werden, ohne zusätzliche Messdaten von Sensoren.

In vorteilhafter Weise kann die Kenntnis der von Wolken bedeckten Bereiche des Himmels im oberen Teilsichtfeld zur weiteren Beurteilung der ermittelten Strahlung herangezogen werden. Beispielsweise kann die diffuse Strahlung durch Wolken zunehmen, und eine direkte Strahlung kann durch Wolken abnehmen. Bei einer anderen Witterung können am Standort andere Strahlungsbedingungen herrschen.

Die aktuellen und die zukünftigen Strahlungsbedingungen können durch die Ermittlung der Wolkenpositionen und der Geschwindigkeit der Wolken zumindest teilweise ermittelt werden.

Für weitere Details wird auf die Verwendung der Anordnung zur Bestimmung eines Parameters verwiesen.

Nach einer günstigen Ausgestaltung des Verfahrens können aus den erfassten Kameradaten der Erdoberfläche zugeordnete Kameradaten entnommen und aus diesen der Erdoberfläche zugeordneten Kameradaten wenigstens einer der folgenden Parameter: eine an der Erdoberfläche reflektierte Strahlung und/oder eine Albedo der Erdoberfläche und/oder wenigstens eine Wolkenschattenposition und/oder aus den Wolkenschattenpositionen zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche, ermittelt werden.

Die Geschwindigkeit einer Wolke oder von mehreren Wolken über dem Erdboden kann bei dem erfindungsgemäßen Verfahren aus den Kamerabildern des unteren Teilsichtfelds bzw. aus den der Erdoberfläche zugeordneten Kameradaten ermittelt werden. Das korrespondierende Auswertungsverfahren ist ähnlich dem zur Bestimmung der Winkelgeschwindigkeit der Wolken aus Bildern des oberen Teilsichtfelds bzw. aus den dem Himmel zugeordneten Kameradaten.

In einem alternativen Verfahren lassen sich Bildmerkmale, welche der Position wenigstens eines Wolkenschattens entsprechen, und deren Verschiebung Am, An auch auf andere Weise, beispielsweise mit Hilfe von SIFT (scale invariant feature transform) oder über andere maschinelle Lernverfahren, ermitteln.

Für weitere Details wird auf die Verwendung der Anordnung zur Bestimmung eines Parameters verwiesen.

In vorteilhafter Weise kann durch die Ermittlung der direkten Strahlung und/oder der diffusen Strahlung zusammen mit der reflektierten Strahlung eine Performance eines Solarwerks an dem Standort der erfindungsgemäßen Anordnung ermittelt werden und eine Solare- Ressource am Standort beurteilt werden. Hierbei sind keine weiteren Sensoren oder Sensoreinheiten, wie beispielsweise Pyranometer, erforderlich. Die Strahlung kann nur durch die wenigstens eine Kamera und deren Kameradaten ermittelt werden.

Nach einer günstigen Ausgestaltung des Verfahrens kann aus der Geschwindigkeit von wenigstens einer Wolke über der Erdoberfläche und der Winkelgeschwindigkeit von wenigstens einer Wolke im Kamerabild eine Höhe der Wolken ermittelt werden.

Für weitere Details wird auf die Verwendung der Anordnung zur Bestimmung eines Parameters verwiesen Insbesondere kann mit der Höhe der Wolken, der aktuellen Position der Wolken und der Wolkengeschwindigkeit über der Erdoberfläche eine zukünftige Wolkenposition ermittelt werden. Daraus kann eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke in einem vorgegebenen Gebiet abgeschätzt bzw. berechnet werden. Dadurch können in vorteilhafter Weise genauere Kürzestfrist-Vorhersagen der Solarstrahlung mit nur einer Kameraanordnung am selben Standort erstellt werden, wobei die wenigstens eine Kamera nur wenige Meter über dem Erdboden installiert ist. In vorteilhafter Weise kann dadurch frühzeitig auf Verschattungen oder eine zu erwartende Fluktuation der Leistung der Solaranlage reagiert werden.

Nach einer günstigen Ausgestaltung des Verfahrens kann die Geschwindigkeit von Wolken über der Erdoberfläche und die Winkelgeschwindigkeit von Wolken im Kamerabild zeitlich und räumlich extrapoliert werden.

Hierbei können sowohl Winkelgeschwindigkeit von Wolken im Kamerabild als auch die Geschwindigkeit von Wolken über der Erdoberfläche zeitlich und räumlich gemittelt und/oder extrapoliert werden, um eine größere zeitliche und räumliche Abdeckung zu erhalten. Dadurch ist in vorteilhafter Weise auch eine Ermittlung der Wolkenhöhe und der Wolkengeschwindigkeit von Wolken möglich, deren Schatten (noch) nicht im unteren Sichtfeld erfasst wird.

Durch das zeitliche und räumliche Extrapolieren kann ausgeglichen werden, dass das untere Sichtfeld einen kleineren Ausschnitt und dadurch weniger Wolkenschatten erfasst, als Wolken im oberen Teilsichtfeld erfasst werden. Durch das zeitliche und räumliche Extrapolieren ist es nicht zwingend notwendig, die Daten einer Wolke und deren Schatten zur Auswertung zu verwenden. Es können auch die Schatten anderer Wolken für die Ermittlung der Wolkenhöhe einer im oberen Teilsichtfeld erfassten Wolke herangezogen werden. Diese Auswertung ist weniger genau, als wenn die Kameradaten einer Wolke und deren Schatten zur Auswertung herangezogen werden. Es ist aber eine kontinuierliche Ermittlung der Wolkenhöhen möglich.

Nach einer günstigen Ausgestaltung des Verfahrens kann aus den Kameradaten und/oder den ermittelten Parametern wenigstens ein aktueller und/oder zukünftiger Wert wenigstens einer Komponente der globalen Strahlungsstärke spektral und/oder winkelaufgelöst ermittelt werden.

Hierbei kann eine winkelaufgelöste Strahlungsinformation, insbesondere die Radianz, entsprechend einer Projektion in die Ebene von Interesse gewichtet und integriert werden.

Auch die winkelaufgelöste Information kann selbst für einen Nutzer von Interesse sein, sodass dann die Gewichtung und Integration entfallen kann. Durch eine winkelaufgelöste Erfassung der wenigstens einen Komponente der globalen Strahlung kann die aktuelle und/oder zukünftige Albedo des Erdbodens bestimmt werden. Des Weiteren kann eine aktuelle und/oder zukünftige Bestrahlungsstärke einer auf eine Ebene mit bekannter Neigung zum Erdboden auftreffenden Strahlung, beispielsweise eine Rückseite eines bifazialen Photovoltaik-Moduls, in vorteilhafter Weise bestimmt werden. Eine zusätzliche Unterstützung durch ein Pyranometer oder einen anderen geeigneten Sensor ist möglich. In vorteilhafter Weise sind keine weiteren Sensoren, wie Pyranometer erforderlich, um Bestrahlungsstärken der Komponenten der globalen Strahlung spektral und/oder winkelaufgelöst aufzulösen oder Bestrahlungsstärken auf zur Erdoberfläche geneigten Ebenen zu ermitteln.

Nach einer günstigen Ausgestaltung des Verfahrens kann die wenigstens eine Komponente der globalen Bestrahlungsstärke auf einer geneigten Oberfläche ermittelt werden. Dadurch kann in vorteilhafter Weise ein optimaler Neigungswinkel von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen ermittelt werden. Alternativ oder zusätzlich kann bei bekannten Neigungswinkeln von Solarmodulen unter anderem von bifazialen Photovoltaik-Modulen eine aktuelle und/oder eine zu erwartende Leistung ermittelt werden.

Die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren können zur Vorhersage von der globalen Strahlungsstärke und/oder zur Vorhersage von Komponenten der globalen Strahlungsstärke an bestimmten Erdoberflächenbereichen aufgrund der Wolkenposition und der Neigung der Oberfläche, auf welche die globale Strahlungsstärke auftrifft, verwendet werden. Dadurch können die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren eingesetzt werden, um Kürzestfristvorhersagen der Solarstrahlung zu erstellen.

Diese Vorhersagen werden bisher eingesetzt, um autarke Microgrids effizienter zu betreiben durch die gezielte Steuerung von Speichern oder Generatoren. Zusätzlich können solche Vorhersagen den Betrieb von Verteilnetzen und die Vermarktung der Erzeugung von Solar-Kraftwerken unterstützen. Des Weiteren kann durch die genaue und winkelaufgelöste Messung der am Erdboden reflektierten Strahlung und der vom Himmel stammenden Strahlung das Monitoring von Photovoltaik-Kraftwerken verbessert werden. Hierdurch können insbesondere bifaziale Kraftwerke besser und mit voraussichtlicher mit weniger Arbeitsaufwand und in automatisierter Form technisch überwacht werden.

Die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren können durch die Überwachung der Bewölkung auch Eingangsdaten für numerische Wettermodelle oder für kombinierte Vorhersagemodelle unter Einbeziehung von Satellitendaten liefern und können daher für private und öffentliche Wetterdienste von Interesse sein. Die erfindungsgemäße Anordnung, die erfindungsgemäße Verwendung der Anordnung und das erfindungsgemäße Verfahren können durch die Überwachung der Bewölkung und der Höhe von Wolken auch dazu beitragen, den Luftraum z.B. über Flughafen kostengünstiger und vollständiger zu überwachen.

Weiterhin wird ein Computerprogramm oder ein Computerprogrammprodukt vorgeschlagen, umfassend Befehle, die bewirken, dass eine erfindungsgemäße Vorrichtung ein erfindungsgemäßes Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchführt.

Weiterhin wird ein Computerprogramm oder ein Computerprogrammprodukt vorgeschlagen, umfassend Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, ein Verfahren zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchzuführen, umfassend Erfassen von Kameradaten KDH, KDE von einer Kameraanordnung in einem wenigstens annähernd kugelförmigen Sichtfeld um die Kameraanordnung, Ableiten von Informationen zur Solarstrahlung und/oder zur Position und/oder Eigenschaften von Wolken aus den Kameradaten KDH, KDE.

Zeichnung

Weitere Vorteile ergeben sich aus der folgenden Zeichnungsbeschreibung. In den Figuren sind Ausführungsbeispiele der Erfindung dargestellt. Die Figuren, die Beschreibung und die Ansprüche enthalten zahlreiche Merkmale in Kombination. Der Fachmann wird die Merkmale zweckmäßigerweise auch einzeln betrachten und zu sinnvollen weiteren Kombinationen zusammenfassen.

Es zeigen beispielhaft:

Fig. 1 eine schematische Darstellung einer Anordnung zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalenBestrahlungsstärke;

Fig. 2 eine schematische Darstellung einer Anordnung zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke; und Fig. 3 eine schematische Darstellung einer Verwendung einer Anordnung aus Figur 1 oder Figur 2 und eine schematische Darstellung eines Verfahrens zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke.

Ausführungsformen der Erfindung

In den Figuren sind gleichartige oder gleichwirkende Komponenten mit gleichen Bezugszeichen beziffert. Die Figuren zeigen lediglich Beispiele und sind nicht beschränkend zu verstehen.

Im Folgenden verwendete Richtungsterminologie mit Begriffen wie „links“, „rechts“, „oben“, „unten“, „davor“ „dahinter“, „danach“ und dergleichen dient lediglich dem besseren Verständnis der Figuren und soll in keinem Fall eine Beschränkung der Allgemeinheit darstellen. Die dargestellten Komponenten und Elemente, deren Auslegung und Verwendung können im Sinne der Überlegungen eines Fachmanns variieren und an die jeweiligen Anwendungen angepasst werden.

Die Figuren 1 und 2 zeigen in schematischer Darstellung eine erfindungsgemäße Anordnung 100 zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl.

Die Anordnung 100 umfasst wenigstens eine Auswerte- und Steuereinrichtung 110 sowie eine Kameraanordnung 120 mit wenigstens einer Kamera 122, 124 und einer Halteanordnung 126. Im dargestellten Ausführungsbeispiel umfasst die Anordnung 100 eine einzige Auswerte- und Steuereinrichtung 110. In einem alternativen, nicht dargestellten Ausführungsbeispiel kann die Anordnung 100 mehr als eine Auswerte- und Steuereinrichtung 110 aufweisen. Die Auswerte- und Steuereinrichtung 110 ist im dargestellten Ausführungsbeispiel der Anordnung 100 kabellos mit den vorhandenen Kameras 122, 124 verbunden. Es ist auch eine Datenverbindung über ein Kabel vorstellbar.

Die Anordnung 100 weist in diesem Beispiel eine gemeinsame Achse 30 und eine horizontale Achse 40 auf. Die Kameraanordnung 120 ist entlang der gemeinsamen Achse 30 angeordnet. Die Kameraanordnung 120 weist einen Mittelpunkt 50 auf, der auf der gemeinsamen Achse 30 angeordnet ist. Die gemeinsame Achse 30 ist hier im Wesentlichen in vertikaler Richtung ausgerichtet und bildet eine im Wesentlichen vertikale Achse 31 (Figur 1 ) aus oder ist mit einem Kippwinkel zu der vertikalen Richtung gekippt und bildet eine schräge Achse 33 (Figur 2) aus.

Im dargestellten Ausführungsbeispiel umfasst die Anordnung 100 zwei Kameras 122, 124, welche am gleichen Standort mit entgegengesetzter Ausrichtung installiert sind. Die zwei Kameras 122, 124 sind auf der gemeinsamen Achse 30, im Wesentlichen vertikalen Achse 31 oder schrägen Achse 33, angeordnet. Somit weisen die Kamera 122 und die Kamera 124 die gemeinsame Achse 30 als eine gemeinsame Achse 30, im Wesentlichen vertikale Achse 31 oder schräge Achse 33 auf. In einem alternativen, nicht dargestellten Ausführungsbeispiel kann die Anordnung 100 mehr als zwei Kameras 122, 124 am gleichen Standort oder lediglich eine Kamera 122, 124 aufweisen. Die eine Kamera 122, 124 weist hierbei zwei Sensoren (nicht dargestellt) auf. Die Sensoren sind entlang der gemeinsamen Achse 30 angeordnet. Die Sensoren zeigen entlang der gemeinsamen Achse 30 in entgegengesetzte Richtungen, wobei auf der gemeinsamen Achse 30, die im Wesentlichen vertikal oder schräg ausgerichtet ist, ein erster Sensor nach oben zeigt und ein zweiter Sensor nach unten zeigt.

Es versteht sich, dass die Kameras 122 und 124 anstatt entlang einer gemeinsamen Achse 30 auf zwei Achsen angeordnet sein können, die im Wesentlichen und parallel mit geringem Abstand, insbesondere in einem Abstand von höchstens etwa 10 m, zueinander verlaufen.

Günstigerweise setzt sich das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung 120 aus einem räumlichen ersten Teilsichtfeld und einem räumlichen zweiten Teilsichtfeld von jeweils zumindest annähernd 180° um die Kameraanordnung 120 zusammen, die entlang der gemeinsamen Achse 30 angeordnet sind. Die gemeinsame Achse 30 ist insbesondere im Wesentlichen in einer vertikalen Richtung 31 ausgerichtet und bildet die vertikale Achse 31 aus oder mit einem Kippwinkel zu der vertikalen Richtung 31 ausgerichtet und bildet die schräge Achse 33 aus.

In einem nicht dargestellten Ausfphrungsbeispiel kann die Anordnung zwei Achsen aufweisen, wobei die eine der Kameras 122, 124 an der einen und die andere der Kameras 122, 124 an der anderen Achse angeordnet sind, wobei die Teilsichtfelder entlang der zwei Achsen angeordnet sind und wobei die zwei Achsen im Wesentlichen parallel und mit geringem Abstand, insbesondere in einem Abstand von höchstens etwa 10 m, zueinander angeordnet sind. Die Halteanordnung 126 fixiert die beiden Kameras 122, 124 mit einem vorgegebenen Abstand A zu einer Erdoberfläche 20. Im dargestellten Ausführungsbeispiel ist die Halteanordnung 126 L-förmig ausgeführt, es sind aber auch andere Ausgestaltungen möglich. Beispielsweise ist auch eine Drohne, welche die Kameras hält, vorstellbar. Die Halteanordnung fixiert die Kamera 122, 124 derart, dass die Kamera 122, 124 entlang der gemeinsamen Achse 30 angeordnet sind.

Die Kameraanordnung 120 ist ausgebildet, um Kameradaten KDH, KDE in einem räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung 120 zu erfassen. Das räumliche Sichtfeld von zumindest annähernd 360° erstreckt sich entlang der gemeinsamen, im Wesentlichen vertikalen Achse 31 oder schrägen Achse 33 und weist zwei entlang der gemeinsamen Achse 30 ausgerichtete in entgegengesetzte Richtungen zeigende Sichtfelder auf. Ein erstes Sichtfeld ist nach oben gerichtet und das zweite Sichtfeld ist nach unten gerichtet entlang der gemeinsamen Achse 30.

Die Kameradaten KDH, KDE sind geeignet, um Informationen zur Solarstrahlung und/oder zur Position WP und/oder zu Eigenschaften von Wolken 12 abzuleiten. Das Sichtfeld der Kameraanordnung 120 an einem vorgegebenen Ort setzt sich im dargestellten Ausführungsbeispiel aus einem in Richtung Himmel 10 ausgerichteten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung und einem in Richtung Erdoberfläche 20 ausgerichteten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 zusammen. Es sind auch mehr als zwei Teilsichtfelder vorstellbar. Des Weiteren ist eine andere Ausrichtung der Teilsichtfelder umsetzbar. Unter einem Sichtfeld von zumindest annähernd 360° um die Kameraanordnung 120 wird ein wenigstens annähernd kugelförmiges Sichtfeld um einen Mittelpunkt 50 verstanden. Die beiden Kameras 122, 124 sind an diesem Mittelpunkt 50 angeordnet. Die beiden Kameras 122, 124 sind hier entlang der gemeinsamen Achse 30 angeordnet, wobei die gemeinsame Achse im Wesentlichen vertikal ausgerichtet ist und eine im Wesentlichen vertikale Achse ausbilden kann oder mit einem Kippwinkel zu der vertikalen Achse gekippt ist und eine schräge Achse ausbildet. Der Mittelpunkt 50 wird aus einem Schnittpunkt der gemeinsamen Achse 30 mit der horizontalen Achse 40 gebildet.

Unter der wenigstens einen Kamera 122, 124 kann eine RGB-Kamera oder eine Infrarot-Kamera verstanden werden. Im dargestellten Ausführungsbeispiel der Anordnung 100 sind die Kameras 122, 124 als RGB-Kameras mit Fischaugenobjektiven ausgeführt. In einem alternativen, nicht dargestellten Ausführungsbeispiel sind anstelle von Kameras mit Fischaugenobjektiven auch andere Aufbauten mit Parabolspiegel vorstellbar.

Die wenigstens eine Kamera 122, 124 kann beispielsweise 24 Bilder pro Sekunde aufnehmen, wobei diese mit einem entsprechenden Zeitstempel versehen werden können. Es können auch andere Bilderzeugungsraten gewählt werden. Zusätzlich sind erweiterte Aufbauten mit beispielsweise Verschattungsvorrichtungen vorstellbar, um einen Störeinfluss der direkten Sonneneinstrahlung zu reduzieren.

Im dargestellten Ausführungsbeispiel umfasst die Anordnung 100 wenigsten eine Himmelskamera 122, welche Kameradaten KDH im dem Himmel zugeordneten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 erfasst. Des Weiteren umfasst im dargestellten Ausführungsbeispiel die Anordnung 100 wenigstens eine Bodenkamera 124, welche Kameradaten KDE im der Erdoberfläche 20 zugeordneten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 erfasst. Das obere Teilsichtfeld und das untere Teilsichtfeld erstrecken sich entlang der gemeinsamen Achse 30.

Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die Auswerte- und Steuereinrichtung 110 aus den erfassten Kameradaten KDH des oberen Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung wenigstens einen der folgenden Parameter:

(i) eine direkte Strahlung DNI und/oder

(ii) eine diffuse Strahlung Diffl und/oder

(iii) eine globale Bestrahlungsstärke Gl und/oder

(iv) wenigstens eine Position WP von Wolkenmerkmalen 12 und/oder

(v) von Wolken 12 bedeckte Himmelsbereiche und/oder

(vi) aus Wolkenpositionen WP und/oder aus der Position von Wolkenmerkmalen 12 im Kamerabild zwischen wenigstens zwei Zeitstempeln eine Winkelgeschwindigkeit v p(-x / s von wenigstens einer Wolke 12 im Kamerabild.

Wolkenmerkmale sind hierbei Bildmerkmale der aufgenommenen Bilder, welcher einer Wolke 12 und/oder einer Wolkenformation zugeordnet werden können.

Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die Auswerte- und Steuereinrichtung 110 aus den erfassten Kameradaten KDE des unteren Teilsichtfelds von zumindest annähernd 180° um die Kameraanordnung wenigstens einen der folgenden Parameter: (i) eine an der Erdoberfläche 20 reflektierte Strahlung ERS und/oder

(ii) eine Albedo AL der Erdoberfläche 20 und/oder

(iii) wenigstens eine Wolkenschattenposition SP und/oder

(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit v m/s von wenigstens einer Wolke 12 über der Erdoberfläche 20.

Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die Auswerte- und Steuereinrichtung 110 aus Intensitätswerten I der RGB- Kanäle in den aufgenommen Kamerabildern die Strahlung aus jedem Bereich des räumlichen Sichtfelds von zumindest annähernd 360°.

Darauf aufbauend wird die Albedo AL des Erdbodens 20 bzw. eine detailliertere Reflektanz des Erdbodens 20 abgeleitet.

Zur Ermittlung der Geschwindigkeiten v m/s , v pix/s der Wolken 12 bzw. der Wolkenschatten 22 erfasst die korrespondierende Kamera 122, 124 Bildfolgen in kurzem zeitlichem Abstand als Kameradaten KDH, KDE. In den Bildfolgen wird die Verschiebung von Bildmerkmalen zwischen den Aufnahmezeitpunkten ermittelt. Hieraus kann die Bewegung einer Wolke 12 am Himmel 10 ermittelt werden. Zugleich kann die Bewegung des zugehörigen Wolkenschattens 22 am Erdboden 20 ermittelt werden.

Durch den bekannten zeitlichen Abstand zwischen den Aufnahmen lässt sich diese Bewegung umrechnen in eine Geschwindigkeit v m/s , der Wolke 12 über der Erdoberfläche 20 und in eine Winkelgeschwindigkeit, v pix/s der Wolken 12 im Kamerabild. Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die wenigstens eine Auswerte- und Steuereinrichtung 110 aus der Geschwindigkeit v m/s von wenigstens einer Wolke 12 über der Erdoberfläche 20 und der Winkelgeschwindigkeit v pix/s von wenigstens einer Wolke 12 im Kamerabild eine Höhe H1 , H2 der Wolken 12.

H1 entspricht dem Abstand zwischen der Wolke 12 und dem ihr gegenüberliegenden Erdboden 20.

H2 entspricht dem Abstand zwischen der nach oben ausgerichteten Kamera 122 und einer über die nach oben ausgerichteten Kamera 122 projizierte Höhe der Wolke 12. H2 kann aus der Geschwindigkeit der Wolken v m/ , ermittelt werden. H1 kann aus dem bekannten Abstand A der Kamera 122, 124 zum Erdboden 20 und einem bekannten Höhenprofil des zu überwachenden Bereichs bestimmt werden.

Die Auswerte- und Steuereinrichtung 110 ermittelt mit der Höhe H1 , H2 der Wolken 12 und der Wolkengeschwindigkeit v m/s über der Erdoberfläche 20 eine zukünftige Wolkenposition WP und daraus eine zukünftige Verschattung oder eine zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen horizontalen oder geneigten Gebiets.

Im dargestellten Ausführungsbeispiel extrapoliert wenigstens eine Auswerte- und Steuereinrichtung 110 die Geschwindigkeit v m/s von Wolken 12 über der Erdoberfläche 20 und die Winkelgeschwindigkeit v pix/s von Wolken 12 im Kamerabild zeitlich und räumlich. In einem alternativen, nicht dargestellten Ausführungsbeispiel können nur Geschwindigkeiten v m/s , v P ix/s der Wolken 12 ermittelt werden, deren Wolkenschatten 22 vom unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst wird. Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt die wenigstens eine Auswerte- und Steuereinrichtung 110 aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens einen aktuellen und/oder zukünftigen Wert wenigstens einer Komponente der globalen Bestrahlungsstärke Gl spektral und/oder winkelaufgelöst.

Im dargestellten Ausführungsbeispiel der Anordnung 100 ermittelt wenigstens eine Auswerte- und Steuereinrichtung 110 die wenigstens eine Komponente der globalen Bestrahlungsstärke Gl auf einer geneigten Oberfläche.

Figur 3 zeigt eine schematische Darstellung einer Verwendung einer Anordnung aus Figur 1 oder Figur 2 und eine schematische Darstellung eines Verfahrens 200 zur Erfassung und/oder zur Vorhersage wenigstens eines Parameters zur Ermittlung und/oder Vorhersage wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl.

In den Verfahrensschritten S212 und S214 werden Kameradaten KDH, KDE an einem gemeinsamen Standort in einem räumlichen Sichtfeld von zumindest annähernd 360° um eine Kameraanordnung 120 erfasst. Aus den Kameradaten KDH, KDE werden Informationen zur Solarstrahlung und/oder zu Position WP und/oder Eigenschaften von Wolken 12 abgeleitet.

Das räumliche Sichtfeld von zumindest annähernd 360° um die Kameraanordnung setzt sich im beschriebenen Ausführungsbeispiel aus einem in Richtung Himmel 10 ausgerichteten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 und einem in Richtung Erdoberfläche 20 ausgerichteten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung 120 zusammen. Im Verfahrensschritt S212 werden mit wenigsten einer Himmelskamera 122 Kameradaten KDH in einem Himmel 10 zugeordneten oberen Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst. Im Verfahrensschritt S214 werden mit wenigstens einer Bodenkamera 124 Kameradaten KDE in einem einer Erdoberfläche 20 zugeordneten unteren Teilsichtfeld von zumindest annähernd 180° um die Kameraanordnung erfasst. Die Verfahrensschritte S212 und S214 können zeitgleich oder zeitlich versetzt ausgeführt werden. In einem alternativen Verfahrensschritt können Kameradaten KDE, KDH zunächst der Erdoberfläche und dem Himmel 10 zugeordnet werden. Dieser Schritt entfällt im dargestellten Ausführungsbeispiel, weil das obere Sichtfeld und das untere Sichtfeld eine eindeutige Zuordnung der Kameradaten ermöglichen.

Im Verfahrensschritt S222 werden aus den erfassten Kameradaten KDH des oberen Sichtfelds von zumindest annähernd 180° um die Kameraanordnung ermittelt:

(i) eine direkte Strahlung DNI und/oder

(ii) eine diffuse Strahlung Diffl und/oder

(iii) eine globale Bestrahlungsstärke Gl und/oder

(iv) von Wolken bedeckte Himmelsbereiche und/oder

(v) wenigstens eine Wolkenposition WP und/oder

(vi) aus Wolkenpositionen WP und/oder aus der Position von zwei Zeitstempeln eine Winkelgeschwindigkeit v pix/s der Wolken 12 im Kamerabild.

Im Verfahrensschritt S224 werden aus den erfassten Kameradaten KDE des unteren Sichtfelds von zumindest annähernd 180° um die Kameraanordnung:

(i) eine an der Erdoberfläche 20 reflektierte Strahlung ERS und/oder

(ii) eine Albedo AL der Erdoberfläche 20 und/oder (iii) wenigstens eine Wolkenschattenposition SP und/oder

(iv) aus den Wolkenschattenpositionen SP zwischen wenigstens zwei Zeitstempeln eine Geschwindigkeit v m/s von wenigstens einer Wolke 12 über der Erdoberfläche 20 ermittelt.

Zur Ermittlung der direkten Strahlung DNI und/oder der diffusen Strahlung Diffl und/oder einer an der Erdoberfläche 20 reflektierten Strahlung ERS werden Intensitätswerte I wenigstens eines Farbkanals der korrespondierenden Kamera 122, 124 ausgewertet.

Im Verfahrensschritt S230 wird aus den in den Verfahrensschritten S222 und S224 ermittelten Komponenten Diffl, DNI, ERS der globalen Bestrahlungsstärke Gl die globale Bestrahlungsstärke Gl berechnet. Auch kann wenigstens eine Komponente Diffl, DNI, ERS der globalen Bestrahlungsstärke Gl auf einer zur Erdoberfläche 20 geneigten geneigten Oberfläche ermittelt werden.

Im Verfahrensschritt S230 werden aus der Geschwindigkeit v m/ , von wenigstens einer Wolke 12 über der Erdoberfläche 20 und der Winkelgeschwindigkeit v pix/s von wenigstens einer Wolke 12 im Kamerabild eine Höhe H1 , H2 der Wolken 12 ermittelt.

Hierbei kann die Geschwindigkeit v m/s von Wolken 12 über der Erdoberfläche 20 und die Winkelgeschwindigkeit v pix/s von Wolken 12 im Kamerabild zeitlich und räumlich extrapoliert werden.

Im Verfahrensschritt S240 kann mit der Höhe H1 , H2 der Wolken 12 und der Wolkengeschwindigkeit v m/s über der Erdoberfläche 20 eine zukünftige Wolkenposition WP ermittelt und daraus eine zukünftige Verschattung und/oder die zukünftige globale Bestrahlungsstärke Gl eines vorgegebenen Gebiets als Prognose ermittelt werden Die in Verfahrensschritten S222 und S224 ermittelten aktuellen und/oder zukünftigen Werte der Komponenten Diffl, DNI, ERS der globalen Bestrahlungsstärke Gl können aus den Kameradaten KDH, KDE und/oder den ermittelten Parametern wenigstens spektral und/oder winkelaufgelöst ermittelt werden.

Das Verfahren 200 wird in einem Computerprogramm ausgeführt, welches Befehle umfasst, die bewirken, dass eine Vorrichtung 100 zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchgeführt wird. Das Computerprogramm kann Teil eines Corn puterprogram Produktes sein.

Das Computerprogramm oder Computerprogrammprodukt umfassen Befehle, die bei der Ausführung des Computerprogramms durch einen Computer diesen veranlassen, das Verfahren 200 zur Ermittlung wenigstens eines Parameters zur Bestimmung wenigstens einer Komponente einer globalen Bestrahlungsstärke Gl durchgeführt wird, wobei die folgenden Schritte durchgeführt werden:

- Erfassen von Kameradaten KDH, KDE von einer Kameraanordnung 120 in einem kugelförmigen Sichtfeld um die Kameraanordnung 120,

- Ableiten von Informationen zur Solarstrahlung und/oder zur Position (WP) und/oder Eigenschaften von Wolken 12 aus den Kameradaten KDH, KDE.

Bezugszeichen

10 Himmel

12 Wolke

20 Erdoberfläche

22 Schatten der Wolke

30 gemeindame Achse

31 vertikale Richtung, vertikale Achse

33 schräge Achse

40 horizontale Achse

50 Mittelpunkt der Kameraanordnung

100 Anordnung

110 Auswerte- und Steuereinrichtung

120 Kameraanordnung

122 Himmelskamera

124 Bodenkamera

126 Halteanordnung

200 Verfahren

S212-S240 Verfahrensschritte

KDH, KDE Kameradaten

WP Position der Wolke

SP Position Wolkenschatten v P ix/s Winkelgeschwindigkeit v m/s Geschwindigkeit über dem Erdboden

I Intensität eines Farbkanals

H1 Höhe der Wolke von der Erdoberfläche

H2 Höhe der Wolke vom höchsten Punkt der Kameraanordnung

A Abstand der Kameraanordnung zur Erdoberfläche

Gl Globale Bestrahlungsstärke

Diff I diffuse Strahlung

DNI direkte Strahlung

ERS an Erdoberfläche reflektierte Strahlung