Mondfinsternis über der Burg Hohenzollern

Natürlich auch mit Hindernissen wie bei der letzten Mofi – diesmal aber schnöde Wolken, die drohten das Ganze scheitern zu lassen. Aber am Ende „Alles gut“ mit einigen erfolgreichen Zeitraffersequenzen 🙂

Dank Anfahrt mit dem Auto statt Nachtwanderung wie auf Teneriffa einfach alles in den Kofferraum inkl. Fahrrad – man weiß ja nie, ob man viellicht doch schnell mit einer Kamera den Spot wechseln will 😉
Nachteil: Die Überlegungen, was man denn jetzt genau wie aufnimmt fängt vor Ort an und Zeit etwas „hinter der Kamera“ aufzunehmen bliebt nicht. Immerhin eins war klar:

von Anfang bis Ende: 1.500 Bilder mit 50 mm

Übersichtsaufnahme mit 50 mm einfach laufen lassen. Im A-Modus von Sonnenuntergang bis Ende partielle Finsternis – mitsamt Schafherde und weiter hinten Fotografenherde. Das schaffen die Sonys (und ich denke inzwischen alle Spiegellosen) ziemlich gut, den eventuellen Rest an Belichtungsunruhe bügelt LRTimelapse weg. Das 24-70 etwas auf 3,5 abgeblendet, ISO fix auf 500 (Stichwort ISO-Invarianz – siehe Blogbeitrag), 6 s Intervall mit internem Timer und Intervallpriorität ein. Das bedeutet, selbst wenn die Belichtungsautomatik meint länger als 6 s belichten zu wollen, beendet die Kamera die Belichtung früher, um die 6 s von Bild zu Bild einzuhalten. Schließlich will ich keinen durch die Erddrehung verzogenen Mond und die Zeitraffer soll nicht zu schnell laufen.

Was dann eventuell zu dunkel ist, wird in der Bearbeitung einfach heller gemacht. Zwischen 19:30 und kurz nach 22 Uhr kamen gut 1.500 Bilder zusammen und die Belichtung (blaue Kurve links) stieg von 1/5000 s auf’s Maximum von 6 s während der Totalität, um dann wieder bis auf 1/4 s zu fallen.

Die rote Kurve zeigt die Belichtungskorrekturen durch das „Deflicker“ von LRTimelapse und am Ende kommt eine Zeitraffer mit recht harmonischem Helligkeitsverlauf ohne Flickern raus. Die Belichtungsautomatik hatte ich auf „Highlights“ gestellt – wohlwissend, dass das bei dem hellen Mond nur bedingt funktionieren würde, da er einen zu kleinen Teil des Bilds einnimmt als dass der Algorithmus das voll berücksichtigen würde (leider).

Ein Timeslice von LRTimelapse automatisch aus der Zeitraffer generiert. Ein bisschen tricky mit Anzahl der Streifen und abgeschnittenen/eingefrorenen Bildern den Mond passend in die Streifen zu bekommen.

400 mm auf die Burg

Das gute uralte, manuelle Nikon 400/2,8 mit Sony-Adapter kam dann fix zentral auf die Burg. Weshalb auch immer mit der A7sIII die ja nur 4k Auflösung hat. Hier habe ich mich für 1,5 s Intervall entschieden (Dank LRTimelapse Pro Timer mit 1/10 s Auflösung!) und die Belichtung mit Erscheinen des Monds manuell eingestellt, so dass aktuell keine Tiefen „absaufen“ aber das Histogramm rechts noch deutlich Platz für den etwas heller werdenden Mond hat. Auch wenn er im Bildausschnitt komplett in der Totalität bleibt, habe ich erwartet, dass er höher steigend besser durch die Atmosphäre kommt. Das war dann im M-Modus 1 s bei f 2,8 und ISO 500 – die erste Invarianzstufe der 7sIII von 80 war mir dann doch zu weit weg und die zweite von 1600 würde ich nicht brauchen …
Da konnte ich dann ein nettes „Timeblend“, Composite oder einfach fast Deutsch eine Fotomontage erstellen:

Von Beginn der Zeitraffer jedes 96. Bild in Photoshop als Ebenen geöffnet, mit „Aufhellen“ überblendet und bei den ersten beiden den Mond freigestellt da sonst der helle Himmel von Beginn alles überstrahlt hätte und die anderen Monde nicht zur Geltung gekommen wären. Der Himmel ist mitsamt Mond vom dritten Bild, bei der Burg habe ich ein wenig vom ersten Bild überblendet. Die Zeitspanne in dem Bild ist von 20:35 Uhr bis 20:48 Uhr laut Timestamps aus der Kamera.

Weitere Aufnahmen und die üblichen Pannen

Was nix war, war der Einsatz der Nikon P1100 mit ihrem Monsterzoom, mit der ich einige kurze Videos aufnehmen wollte, wie der Mond an Teilen der Burg entlangzieht. Viel zu dunkel für den schwachen Sensor.
Was auch nix so wirklich war, war die Aufnahme mit 135 mm – da hat die alte noname Speicherkarte nach ein paar hundert Bildern getreikt. Bei dem Geld, was man für Kamera und Objektive ausgibt, an der Stelle zu sparen ist echt dämlich.

Die Angelbird Karte in der A7rIII lief mit 0,8 s Intervall natürlich klaglos durch. Das Geld ist echt gut investiert und bleibt zwar nicht in Deutschland aber bei unseren lieben Nachbarn in Österreich ist’s auch besser aufgehoben als bei einem US-Multi. Mehr denn je ein Argument bei Kaufentscheidungen für mich und obendrein kommt noch der Service – versuch mal bei xrghns in China eine Datenrettung anzufragen …
Wie auch immer – letzte Szene war mit dem grob ausgerichteten Benro Polaris und dem Sony 200-600 mm eine nachgeführte Aufnahme wo die Burg durchs Bild zieht. Später dann die Verfolgung der partiellen Finsternis bis zum leuchtenden Vollmond. Das ging sowohl von den Wolken nicht so dolle aus als auch von der Nachführung, die so grob ausgerichtet den Mond über die lange Zeit nicht sauber in der Mitte halten konnte. Da habe ich auf die Belichtungsautomatik inkl. Auto-ISO vertraut – von ISO 2000 und 4 s (f 6,3) bis 2 s bei ISO 100 war die Spanne.

Aufnahmestandort/Planung

PlanIt! oder ähnliche Apps sind bei sowas unverzichtbar, im allg. Blogbeitrag zu Mondfinsternissen habe ich einges zur Planung inkl. meiner Vorgehensweise mit der App erläutert. Nachfolgend einige Screenshots daraus.

Mit Straße zwischen Aufnahmestandort und Motiv nicht ideal aber der mögliche Spot in doppelter Entfernung bot einen arg flachen Winkel und es war auch ein Strommast exakt unter/vor der Burg …
Das Höhenprofil verspricht freie Sicht (beinhaltet aber keine Gebäude oder Bäume!)
Der virtuelle Sucher zeigt den Mond mit Kern- und Halbschatten sowie Kontur des Vordergrunds. Die Burg habe ich angelegt, konnte aber nur schätzen da ich keine Höhenangaben gefunden habe.
Veröffentlicht unter Allgemein, Zeitraffer - Vorschauen & komplette Filme | Verschlagwortet mit , , , , , , | Ein Kommentar

Mondfinsternis mit Hindernissen

Die ganze Story mit weiteren Bildern gibt’s auf www.fehrpics.com, hier mal wegen der Zeitrafferthematik nur die äh ja Zeitraffer davon:

Neben dem ganzen Mist im Zusammenhang mit der Aktion lief das viel zu schwere Setup auf der Polarie wie ein schweizer Uhrwerk und auch die Belichtung im A-Modus und dazu mit ISO-Automatik lief echt prima. -2EV eingestellt da die 300 mm dem Mond doch wenig Fläche gaben und die Belichtungsautomatik selbst mit Fokus auf die Lichter den Mond etwas ausbrennen ließ. LRTimelapse machte beim deflicken einen guten Job, mehr verweigerte mein Rechner in Kombination mit Premiere – er wollte 70 h rechnen und auch die kleinen Wackler hätte man sicher noch rausbekommen können aber jetzt ist’s erstmal wie es ist.

Veröffentlicht unter Allgemein | 2 Kommentare

360° VR Night-Timelapse

Eigentlich ist das mit Zeitraffer selbst am Tag und mit nur einer Kamera schon kompliziert genug. Es kann alles Mögliche schiefgehen und man sammelt schier unglaubliche Datenmengen an. Wem das nicht reicht, der setzt noch Kamerabewegung mit drauf oder nimmt Tag-Nacht-Übergänge („Holy Grail“) auf. Oder packt vier Kameras auf ein Stativ und nimmt damit gleichzeitig Bilder auf, um die vierfache Datenmenge zu einem VR-Video zu verrechnen. Nachts. Natürlich.

Wie geht man vor, um solche Videos zu erhalten?

Leider ist das eine ziemliche Materialschlacht da es (sinnvoll) nur mit mehreren Kameras funktioniert. Möchte man eine 360×180° Sicht haben, also rundum vom Boden bis zum Zenit („vollsphärisch“), muss der Bereich mit Überlappung vom Set-Up komplett abgedeckt werden. Für ein Panorama-Foto kann man einfach zeitlich versetzt mehrere Aufnahmen mit der gleichen Kamera machen – hier würde das gleich mehr Kameras und Objektive bedeuten.

Kamera Set-Up

Also sollte man mit so wenig wie möglich Kameras und daher mit sehr weitwinkligen Objektiven arbeiten. Im Extremfall mit drei 180° Fisheye Objektiven, die horizontal eine ausreichende Überlappung bieten und leicht nach oben gekippt auch im Zenit sicher Überlappen, so dass es keine Probleme bei der Panoramaerstellung gibt. Im Nadir (senkrecht nach unten) bleibt dann zwar eine Lücke aber da steht eh das Stativ und den Bereich füllt man in der Bearbeitung einfach mit einem Logo. Oder lässt das „Loch“ mit der generativen Füllung von Photoshop & Co. verschwinden. Ich hatte zunächst gar keine vollsphärischen Panos im Sinn und schon gar keine Zeitraffer, sondern wollte nur sehr breite Startrailbilder machen. Daher habe ich mir zu dem vorhandenen Samyang 12/2,8 ein weiteres gebrauchtes gekauft. Schnell war zwischen den beiden quer ausgerichteten 12 mm Linsen noch ein 14er hochkant und in der Bearbeitung dachte ich schnell „Wow, ist das cool!!“.
Tje und nun sieht es also mit vier 12mm Linsen an verschiedenen Kameras so aus:

Klar – perfekt wäre es mit vier identischen Kameras aber bei der nötigen Qualität für Milchstraße & Co. kauft man die ja nicht mal eben so. Auch wenn es inzwischen vier Sony-Kameras sind (die gute alte 6d ist „nur“ noch Backup), macht es die astromodifizierte A7 III nicht einfacher in Sachen Farbabgleich und einfach mit Weißabgleich auf Graukarte war es natürlich nicht getan.

Dann gilt es die Kameraeinstellungen vierfach zu checken und ich verrate jetzt nicht, wie oft ich das nicht hinbekommen habe:

  • Akku voll und Speicherkarte eingelegt aber „leer“?
  • AF aus und sauber fokussiert?
  • M-Modus?
  • passende Belichtung gecheckt und gleich eingestellt? (Offen-) Blende, ISO, Belichtungszeit, Weißabgleich
  • Ausrichtung der Kameras – etwa gleichmäßige horizontale Überlappung gegeben und Zenit abgedeckt?
  • Nach Start der Zeitraffer überprüfen, ob alle Kameras ausgelöst haben und mindestens noch die 2. erfolgreiche Auslösung abwarten.

Wie steuert man die Kameras?

Das einfache ist noch die Triggerung – nimmt man es nicht allzu ernst und will es nur mal ausprobieren, nimmt man den internen Intervallauslöser mit unterschiedlicher Verzögerung zum Start und drückt bei zwei Kameras gleichzeitig den Auslöser. Dann entsprechend später passend den dritten (und vierten). Bei 360°-Aufnahmen kann man sich nicht hinter der Kamera „verstecken“ aber das würde ich zu Gunsten der Überprüfung, ob alles mit dem Auslösen klappt, in Kauf nehmen – die ersten Bidler sind hinterher schnell gelöscht.

Eleganter und wirklich synchron macht man das aber über einen externen Intervallauslöser. Da ich keinen mit vier Ausgängen kenne, muss ein „Splitter“ her. Nicht elegant aber man kann zwei einfach parallel schalten, etwas eleganter mit jeweils einer Diode in der Leitung zur Kamera. Vorbildlich baut man ein Kästchen mit Mehrfach-Optokoppler um das sauber galvanisch zu trennen – braucht dafür aber wieder eine Spannungsversorgung. Ich hab ersteres gewählt und natürlich mit dem LRTimelapse ProTimer 😉

Aus zwei mach vier: Ohne weitere Elektronik 1x 2,5 mm Klinkenstecker auf 2x 2,5 mm Klinkenbuchse gibt mit dem ProTimer 4 simultane Triggersignale

Deutlich problematischer wird es mit der Synchronisation der Belichtung wenn man sich an Holy-Grail-Aufnahmen traut, also Tag-Nacht-Übergänge in VR-Timelapse festhalten möchte. Da habe ich nur eine Idee nämlich kompatible Kameras per USB mit qDslrDashboard zu steuern. Laut dem Entwickler Zoltan Hubai sollte das auch mit dem LRTimelapse-Mode funktionieren. Da Sony ein Geheimnis um sein Steuer-Protokoll per USB macht und Third Party Entwickler ausschließt, bin ich da leider raus.

Die Bearbeitung

Ich beschreibe den Workflow mit PTGui, einem leistungsstarken und verbreiteten Stitching-Programm für Panos – das Teil kann gefühlt „Alles“. Und „natürlich“ mit Lightroom und LRTimelapse für die Zeitrafferbearbeitung. Bei großen Helligkeitsunterschieden wie bei Sonnenauf- oder -untergang kann es sinnvoll sein, die vier Blickrichtungen einzeln zu bearbeiten und z.B. die Tiefen in Blickrichtung Sonne mehr aufzuhellen als in die Gegenrichtung – weniger Arbeit wird es dadurch nicht.

  1. Ein passend benannter Ordner und die RAW-Dateien kommen da rein – in einen Unterordner pro Kamera. Bennung nach Himmelsrichtungen, das Hauptobjekt 1 und dann im Uhrzeigersinn 2, 3 & 4 – „egal“ aber man sollte ein einheitliches System durchziehen. Und für den Batchprozess muss die Dateianzahl in den Ordnern identisch sein.
  2. In PTGui öffnet man aus jedem Ordner das erste Bild, gibt Brennweite/Objektiv an wenn es – wie beim komplett manuellen 12er Samyang – nicht per Exif-Daten erkannt wurde und lässt Kontrollpunkte generieren. Im Idealfall klappt das direkt und man sieht im Panoramaeditor schon ein ansehnliches Bild und es ist automatisch die passende Äquirektanguläre Projektion mit 360 x 180° gewählt. Ansonsten wie üblich Kontrollpunkte manuell hinzufügen, mit Masken arbeiten, optimieren lassen, Kontrollpunktliste checken usw.
    Hinweis: PTGui nutzt LibRaw mit Standardeinstellungen, um mit RAW-Dateien zu arbeiten – wenn ihr mit den Resultaten nicht zufrieden seid oder PTGui sie vielleicht gar nicht öffnen kann, muss man den Umweg um vorherige Entwicklung und Speicherung als TIF gehen.
  3. Wichtig für Pano-Zeitraffer ist eine Einstellung, die sich im Panorama-Editor etwas versteckt und zwar in dem Menü auf der rechten Seite, das erscheint wenn man rechts oben auf den kleinen Pfeil klickt. Und zwar sollte hier unter „Überblendung“ die Option „Optimale Schnittkanten finden“ deaktiviert sein (Screenshot). Sonst werden die Kanten zwischen zwei Bildern von Frame zu Frame u.U. anders gelegt und das kann zu unschönem „Flattern“ in der Zeitraffer führen.
  4. Im Bereich „Panorama erstellen“ stellen wir noch die gewünschte Auflösung ein. Natürlich nicht mehr als mit 100% angezeigt wird – was nicht da ist, ist nicht da! Da man später nur einen Teil des erstellen Panoramas im Blickfeld hat, muss man hier schon größer denken als bei klassischem Video – sonst wird’s schnell „pixelig“. Für YouTube ist 8k fast „Pflicht“, also 7.680 Pixel horizontal – mehr geht dort nicht. Als Dateiformat wähle ich Photoshop psd in 16 bit als überblendetes Panorama. Das Projekt (speichern!) dient als Vorlage für den folgenden Batchprozess:
  5. Alt-Shift-B öffnet den Batch-Builder (Screenshot) – Methode „Mehrere Kameras, ein Unterordner pro Kamera“ und wir wählen der Hauptordner der RAW-Dateien aus. Hat man noch andere Ordner da drin oder zusätzliche JPGs oder was auch immer kann man das sogar noch entsprechend eingrenzen. Nach Klick auf „Panoramen finden“ werden nun alle 1. Bilder, alle 2. usw. zu einem Panoramaset verbunden. Wir wählen das aktuelle Projekt als Vorlage und haken unbedingt „wird ‚Bilder‘ ausrichten nicht ausführen …“ an und schicken die generierte Liste an den Batch-Stitcher (Screenshot). Die ganze Geormetrie bleibt ja bei allen Frames identisch und daher ist ein erneutes Ausrichten nicht nötig. Vielmehr wäre es absolut kontraproduktiv da das stitchen durch die sich ändernden Bildinhalte immer ein klein wenig anders ausfallen würden – das Video wäre extrem unruhig.
  6. Wir lassen den Batch-Stitcher seine Arbeit machen und haben „schwups“ ein paar hundert Panos. Eine ordentliche GPU hilft dabei 🙂
  7. In Lightroom importieren und in DNG umwandeln (da LRTimelapse bzw. das Adobe-Tool im Hintergrund) nicht mit PSD oder TIF arbeitet.
  8. Dann der normale Zeitraffer-Workflow – in LRTimelapse initialisieren, Keyframes setzen, zurück in Lightroom und Metadaten laden, Keyframes bearbeiten und speichern. In LRTimelapse Übergängte berechnen, visuelle Vorschauen erzeugen und deflickern (wenn nötig). Wieder in LR Metadaten laden, Sequenz exportieren und in LRTimelapse in Originalauflösung in ProRes oder DNxHR zur weiteren Verarbeitung rendern lassen.
  9. Lücke im Nadir beseitigen:
    Hier kann man ein Logo in Photoshop basteln und mit dem Verzerrungsfilter „Polarkoordinaten“ (Polar -> Rechteckig) sozusagen „aufklappen“. Das wird dann auf 7.680 Pixel Breite und die gewünschte Höhe (je nach Größe der Lücke im Nadir) verzerrt und im Videoeditor über die Videospur gelegt.
  10. Da es nicht bei einem Clip bleiben wird und das Video auch noch als VR „deklariert“ werden muss um von den Playern entsprechend erkannt und behandelt werden kann, mussen die Files noch in einen Video-Editor. In Adobe Premiere schaut das so aus:
    Dateien importieren und im Kontextmenü nach Rechtsklick „Anpassen“ und „VR-Eigenschaften“ auswählen. Dort unter „Angleichen an“ die einzig verfügbare Projektion Äquirektangular wählen, das Layout muss auf „Monoskopisch“ stehen und 360 x 180°.
  11. Dann ab ins Schnittfenster und erstmal schauen, dass ihr das ihr im Programm-Monitor die Schaltfläche für die VR-Videoanzeige bekommt: Rechts unten auf das + öffnet den Schaltflächeneditor und dort zieht ihr euch das panoartige Symbol „VR-Videoanzeige ein/aus“. Nach anklicken wird es blau als Anzeige, dass ihr im VR-Modus seit. Nun könnt ihr euch dort mit der Maus „umschauen“ und auch schauen, was ihr aus den Effekten unter „Immersives Video“ verwenden wollt. Ihr könnt z.B. mit „Sphäre drehen“ die Zuschauenden aktiv durch die Szenen führen.
  12. Export: Unter Vorgabe rechts auf die drei Punkte und „Mehr Vorgaben …“ wählen, in der Suche VR eingeben und „VR Monoscopic Match Source Stereo Audio“ wählen (und zu den Favoriten hinzufügen)

VR zum selberumschauen

Das im Rohformat teils wenig ansehnliche 360×180° Video da einafch so in 2D gepresst kann man nun z.B. auf YouTube stellen und falls korrekt exportiert, erkennt YT das als VR-Video und aktiviert die entsprechende Playersteuerung. Die ist leider etwas limitiert – dass nur 4k angezeigt wird liegt vielleicht an der geringeren vertikalen Auflösung wegem dem 2:1 Seitenverhältnis. Dass aber die Zoomfunktionalität (per Mausrad) so stark eingeschränkt ist, ist wirklich schade. Im VLC-Player kann man lokal bis zum LittlePlanet rauszoomen und das ist nochmal zwei Nummern cooler als die strikt äquirektangulare Projektion in auf YouTube. Mit dem Smartphone oder ensprechender VR-Brille wird’s durch die Sensoren noch eine Nummer cooler, da das Bild auf Drehung und Neigung reagiert – wie wenn sich tatsächlich vor Ort umschaut.

VR als Vorgabe

Die andere – eingangs eingebettete – Variante ist, dass wir im Schnittprogramm in 16:9 bleiben und selbst Blickrichtung, -winkel und -projektion wählen und das Video als normales 16:9 Video hochladen.

Fazit

Ja, schon ein bisschen Arbeit zudem man deutlich längere Clips braucht als üblich, um den Zuschauer*innen Zeit für’s umschauen zu lassen aber mei – was soll’s 😉

Veröffentlicht unter Allgemein, Ausrüstung, Zeitraffer - Setups und Einzelbilder, Zeitraffer - Vorschauen & komplette Filme | Verschlagwortet mit , , , , , | Schreib einen Kommentar

Review zur Astrosoftware Nebulb

Sie verspricht viel – Stacking wie mit richtigen Astroprogrammen aber ohne komplizierten Workflow auf Knopfdruck. Reduktion von Lichtverschmutzung, Startrails, automatische Detektion von Meteoren und Ausrichtung zum Radiant.

Ob sie hält, was sie verspricht und die gut 200 € wert ist erfahrt ihr in meinem Blogbeitrag auf fehrpics.com.

Veröffentlicht unter Ausrüstung | Verschlagwortet mit , , , | Schreib einen Kommentar

Review Black Forest Motion Pine II Controller mit Pan-Tilt Einheit

Rhino, Kessler Crane, Edelkrone, Cynetics, EMotimo – es gibt zahlreiche Anbieter in Sachen „Motion Gear“ für Zeitraffer oder Video in den USA. Aber weshalb in die Ferne schweifen mit allen potentiellen Problemen im Servicefall, wenn das Gute so nah ist?
Im Schonach ist mit Black Forest Motion eine kleine Firma ansässig, die sich diesem speziellen Markt verschrieben hat und das verdammt gut. Ein leistungsfähiger Controller, eine fast schon sensationell gute App zur Programmierung und sehr kompakte, mechanisch sauber konstruierte Drehachsen bilden einen universell einsetzbaren Pan-Tilt Kopf. Weitere Ausgänge steuern Slider- und Lensmotoren für 4-Achsen Bewegungen. Das musste ich mir natürlich näher anschauen – schaut rein 🙂

Wer kein Bock auf Video hat, hier die Kurzfassung: Geiles Teil – absolute Kaufempfehlung.

Etwas länger: Mechanisch alles sauber aufgebaut und verarbeitet, der PineII-Controller kann dank Motorprofilen mit allen möglichen Schrittmotoren auch von anderen Systemen umgehen und die bis zu 4 Achsen können dank wirklich umfangreicher, durchdachter und weitgehend intuitiv zu bedienender App perfekt gesteuert werden. Neben den üblichen 12 V per Rundstecker kann das ganze System auch per USB-PD versorgt werden. Der modulare Aufbau mit zwei sehr kompakten Drehachsen („NT-Mini“), die die Pan-Tilt-Einheit bilden und per Arca-Swiss Schienen und Abstandshaltern individuell optimiert werden können, gefällt mir auch sehr gut. So ist es z.B. auch möglich, eine einzelne Drehachse mit Ausrichtung auf Polaris (dazu gibt es einen passenden Sucher zum aufstecken) als einfachen Astrotracker zu verwenden – die App liefert ohne Rechnerei die passender Rotationsgeschwindigkeit.

Ich habe nur die Pan-Tilt Einheit mit dem Pine II getestet, aber das rundum positive Fazit lässt sich sicherlich auf die Slider, die Objektiveinheit und weitere Produkte übertragen. Die Testeinheit wurde mir von Black Forest Motion kostenlos ohne jede Vorgaben zur Verfügung gestellt – der Test selbst ist in keiner Weise bezahlt und wie immer komplett unabhängig.

Die Vorstellung des Pro-Modus in der App habe ich im Video leider versaut aber die App kann auch ohne den Controller genutzt werden so dass man sich vor dem Kauf schauen kann, wie man mit der Bedienung zurecht kommt und auf der Homepage von Black Forest Motion gibt es auch zahlreiche gute Videos zu allen Produkten und App-Funktionen – auch nicht selbstverständlich.

Veröffentlicht unter Ausrüstung | Verschlagwortet mit , , , , , , | Schreib einen Kommentar