Mondansichten vom 26.05.23 als Abfallprodukt eines Tests von Teleskopzubehör & Guiding

Nachdem der Test des automatischen Alignments mit dem Celestron StarSense Modul vor einiger Zeit erfolgreich verlief, stand jetzt ein weiterer Test an: Reaktivierung meiner ersten Astrokamera ASI ZWO 120 MS als Guiding Kamera. Mit dem Bonus, ggf. auch für das Plate Solving eingesetzt zu werden. Zur Sommerzeit ist natürlich keine gute Zeit für die beobachtende Astronomie in unseren Breitengraden. Aber wenn ich alles jetzt einigermaßen hinbekomme, bin ich bereit und eingespielt für die dunkleren Jahresabschnitte.

Was ist der aktuelle Aufgaben- und Testberg, den ich angehe?

  • Automatisches Alignment mit der Celestron StarSense ==> erledigt
  • Guiding mit vorhandenem Equipment, ohne noch zusätzlich (viel) Geld ausgegeben zu müssen. D.h.: Nutzung meiner eingemotteten Astrokamera ASI ZWO 120 MC an dem Baader Vario-Finder. ==> dieser Abend
  • Endlich ein Grundverständnis entwickeln, welches die Mindest-Aktivitäten sind, um in PixInsight DeepSky Aufnahmen nachzubearbeiten. Ich hatte schon mal angefangen, bin aber Anfang letzten Jahres nach den ersten Schritten abgestorben. ==> in Arbeit

Da die Tage schon recht lang sind, muss ich für DeepSky Fotografie bis knapp Mitternacht warten. Doch ich nutzte den helleren Abendabschnitt, um die reaktivierte ASI ZWO 120 MC am Baader Vario-Finder mit Hilfe des Mondes zu testen und zu fokussieren. Denn beim ersten Versuch vor zwei Wochen bekam ich die Kamera nicht in den Fokus und musste mir noch eine Verlängerungshülse besorgen. Näheres dazu in einem späteren Kurzartikel.

Kurz, es klappte:

Vollständigen Artikel lesen

Besuch beim Terminator – Zwei Mondbilder an der Tag- und Nachgrenze vom 11.03.22

Einen der raren Momente klaren Himmels nutzend, war es an der Zeit, das Teleskop rauszustellen. Es dauert nicht mehr so lange, bis Vollmond ist. Daher lag ein Schwerpunkt des Abends bei der Mondfotografie. Ich nahm etliche Bilder an der Tag- und Nachgrenze (Terminator) auf. Dort steht die Sonne noch tief beim Mondhorizont, so dass sich interessante Kontraste ergeben.

Die Bearbeitungsreihenfolge pro Bild war:

  • Aufnahme eines Videos mit 1.000 Bildern
  • Stacken der Bilder des Videos mit autostakkert 3 zu einem Ergebnisbild
  • Schärfen des Bildes mit RegiStaxx Waveletts. Die Settings waren bei diesen Bildern wie folgt eingestellt:
  • Nachbearbeitung Kontrast, Helligkeit, Gradationskurve mit Affinity Photo
  • Abgleich der Identifizierung der Gebiete und zu sehenden Features (Krater, Rillen usw.) mit den Büchern „Mondatlas, Antonin Rükl“ sowie „Fotografischer Mondatlas, Oculum, Alan Chu, Wolfgang Paech, Mario Weigang“.
Vollständigen Artikel lesen

Der Mac-benutzende Hobbyastronom, seine Windows Software und der Umstieg auf die neuen Apple M1 Prozessoren

Der Hobbyastronom mit Mac-Rechner hat über virtuelle Maschinen (VM) die bequeme Möglichkeit, Software für die Bearbeitung der Astrofotos auszuführen, auch wenn es sie nicht für das MacOS gibt. Bei mir sind es die Programme autostakkert und RegiStax, die es nur für Windows gibt.

Nun hat Apple eine eigene Prozessorfamilie entwickelt, die zusammen mit der neuen ausgelieferten Rechnerarchitektur zwar extrem leistungsfähig ist. Allerdings hat der Umstieg ein Problem: Die installierten virtuellen Maschinen laufen schlicht nicht auf den neuen Apple Rechnern. Denn Windows ist auf Intel-Prozessoren ausgelegt. Die neuen Apple Prozessoren arbeiten auf ARM Basis. Und Microsoft verkauft kein Windows für ARM Prozessoren.

Es gibt allerdings eine (inoffizielle) Möglichkeit, von der man allerdings nicht weiß, wie zukunftsfähig sie ist. Microsoft bietet mit Windows 11 eine Developer Preview für ARM Prozessoren an. Nur wird sie nicht offiziell verkauft. Man muss sich daher als Entwickler bei Microsoft (kostenlos) anmelden und das ARM Windows von dort herunterladen. Ob Microsoft die ARM Windows weiterverfolgen oder gar offiziell anbieten wird, ist unklar.

Ich habe mir die Windows 11 ARM Developer Preview wie folgt aufgespielt und eingerichtet:

  1. Umstieg von VMFusion auf Parallels, weil bei letzterem die Developer Preview ohne große Umstände installiert werden kann. Parallels bietet dafür auf eine Anleitung an: siehe hier (deutscher Artikel, englisches Erklärvideo).
  2. Und jetzt Achtung: Es kann sein, dass das installierte Windows 11 nicht funktioniert. Mausklicks werden oft nicht angenommen. Es öffnen sich keine Menüs und Kontextmenüs. Das liegt dann an der deutschen Spracheinstellung. Dieser Blogartikel (siehe hier) erklärt, wie man das Problem beseitigt.
  3. Und falls der Microsoft Store nicht als App installiert wurde, bietet dieser Supportartikel von Parallel (siehe hier) die Lösung.

Et voila, ich konnte dann meine oben genannten Programme installieren. Die ersten Testworkflows zeigen, dass sie tatsächlich unter Windows 11 ARM funktionieren.

PS: PixInsight gibt es auch als MacOS Variante. Sie läuft auch auf dem M1 Rechnern von Apple. Sollte es nach dem Umstieg zum wiederkehrenden Crashs beim Programmstart kommen, installiert einfach die aktuelle Version frisch installieren. So wie man es bei größeren Updates des Programms sowieso machen muss. Danach ist alles wieder lauffähig.

Ergänzung zu: Jupiter und Saturn im lichtverschmutzten Berlin am 03.09.21

Am dritten September hatte ich nach langer Zeit mal wieder mein Teleskop auf die Balkonterrasse gestellt, siehe meinen Blogartikel. Die dort gemachten Bilder von Jupiter und Saturn waren aufgrund der etwas besseren Position am Himmel zwar qualitativ besser als im Vorjahr, aber dennoch ziemlich verwaschen. Die Planeten stehen halt noch recht tief am nächtlichen Himmel:

Jupiter mit Großem Roten Fleck
Jupiter mit Großem Roten Fleck
Saturn
Saturn

Zur Nachbearbeitung von Planetenfotos benutzte ich eigentlich autostakkert. Daneben gibt es allerdings noch z.B. die Software RegiStax. Dieses bietet Wavelets an. Mit einem Wavelet-Filter kann man ein Bild schärfen und gleichzeitig das Rauschen unterdrücken, welches durch das Schärfen entstanden ist.

Ich habe damit ein bisschen herumexperimentiert und bin auf die nachfolgenden Ergebnisse gekommen. Das geht bestimmt noch besser. Ich werde noch nach einer guten Anleitung hierzu recherchieren. Vielleicht kann mir auch jemand einen guten Hinweis im Kommentar hinterlassen. 😀

In jedem Fall sind beim Jupiter die Verwirbelungen in den Wolkenstrukturen und deren Rändern erheblich besser zu erkennen. Insbesondere links und rechts vom Großen Roten Fleck. Auch die nach oben hinausgehenden „Ausbrüche“ vom nördlichen tief roten Band sind jetzt sehr gut zu sehen.

RegiStax: Jupiter
RegiStax: Jupiter

Das Wavelet-Ergebnis des Saturns zeigt nun die sehr klar abgrenzte CassinischeTeilung. Ebenso sind die Abstufungen der Wolkenbereiche erkennbar. Der Schattenwurf vom Saturn auf den hinteren Teil des Rings ist besser herausgearbeitet.

RegiStax: Saturn
RegiStax: Saturn

Justage Teleskopzubehör, Jupiter und Saturn im lichtverschmutzten Berlin am 03.09.21

Nach langer Abstinenz (schlechtes Wetter, Lego & Klemmbausteine, Ausflug in die KI Programmierung) widmete ich mich mal wieder der praktischen Astronomie. Die Nacht versprach einen klaren Himmel. Also wurde das Teleskop auf die Balkonterrasse gestellt und die Dienstkleidung angezogen:

Gesamten Artikel lesen

PixInsight: Blut und Schweiß bei der Bearbeitung von Astrofotos

Bei der Astrofotografie gibt es zwei Themengebiete: die Planetenfotografie incl. Mond und Sonne und die Deep Sky Fotografie. Die Methodik der Planetenfotografie besteht darin, auf Basis eines Videofilms (z. B. 30 Sekunden Dauer oder 1.000 Bilder in der Videosequenz) das Lucky Image Verfahren anzuwenden. Hierbei werden die besten Bilder einer Bildsequenz herausgesucht und gestackt (übereinander gelegt). Die unterschiedliche Qualität der einzelnen Bilder resultiert aus der Luftunruhe auf lokaler, Orts- und atmosphärischer Nähe. Dieses Heraussuchen braucht man heutzutage nicht mehr händisch zu machen. Dafür gibt es Programme wie autostakkert, Registax und weitere. Das Stacken dient dann übrigens dazu, das unvermeidliche Bildrauschen so gut wie möglich zu reduzieren.

Beispiele:

Jupiter fertig bearbeitet:

Für Deep Sky Objekte (Sternhaufen, Neben, Galaxien usw.) müssen andere zahlreiche Bildbearbeitungsschritte erfolgen. Welche es sind, hängt auch davon ab, was man fotografiert. Hier werden dann auch keine Videofilme erstellt. Vielmehr erfolgen Fotoserien mit Belichtungszeiten bis hin in den Minuten- oder Stundenbereich. Anfang letzten Jahres entschloss ich mich dann, diesen „Eisberg“ anzugehen und allererste, kleine Erfahrungen zu sammeln. Meine damalige Montierung (äquatorial, Originalmontierung beim Teleskopkauf) ist für die Deep Sky Fotografie allerdings nicht geeignet. Sie hat nicht die erforderliche Präzision beim Positionieren und der Nachführung. Bei 5 bis max.10 Sekunden Belichtungszeit war Schluss. Ansonsten beginnt das Bild zu verschmieren. Dazu kommt, dass für lange Belichtungen eine parallaktische Montierung Pflicht ist. Nur so wird verhindert, dass sich das Objekt bei längeren Belichtungszeiten im Sichtfeld anfängt zu drehen.

Vollständigen Artikel lesen

Keogramm der AllSky Kamera zeigt die bisherigen besch… Beobachtungsbedingungen in 2021 für (Hobby-) Astronomen in Berlin

Die von mir auf unserer Terrasse installierte AllSky Kamera zeigt ohne Gnade, dass die (Hobby-) Astronomen in Berlin nicht gerade mit Glück bedacht waren. Fast durchgängig wolkenverhangener Himmel zu den Beobachtungszeiten. Dies alles wird durch die AllSky Software von Thomas Jacquin mittels Erstellung eines Keogramms festgehalten.

Ein Keogramm ist ein zusammengesetztes Bild, welches aus einzelnen Bildern erstellt wird, die während der Nacht aufgenommen wurden. Aus den Originalbildern werden der jeweils gleiche Breitengrad, d. h. die jeweils gleichen schmalen senkrechten Bildausschnitte in das Keogramm von links nach recht eingefügt. So ergibt sich eine Zeitreihe, aus der der Bewölkungsgrad in diesem schmalen Himmelsausschnitt zum jeweiligen Zeitpunkt erkennbar ist.

Ich stelle unten die Keogramm Bilder dar, beginnend von der Silvesternacht bis zur vorigen Nacht. Folgende Dinge sind zu beachten:

Vollständigen Artikel lesen

19.12.20: Jupiter und Saturn kurz vor der Großen Konjunktion und ein Mondmosaik

Am 21.12. dieses Jahres findet die Große Konjunktion statt, die enge Begegnung von Jupiter und Saturn. Die Astrozwerge haben hierzu einen längeren Artikel verfasst. Die nächste nahe Begegnung lässt sich übrigens 20 Jahre Zeit.

Dieses Ereignis ist leider nur recht kurz nach dem Sonnenuntergang zu sehen. Beide Planeten stehen da schon recht tief am Horizont. Heute Abend bot sich aufgrund klaren Himmels dann glücklicherweise die Möglichkeit, sich die beiden Planeten durch das Teleskop anzuschauen. Sie stehen so eng beieinander, dass sie bei nicht allzu hoher Vergrößerung gemeinsam im Okular erfasst werden können. Und die Mondsichel gab sich in der ersten Nachthälfte auch die Ehre.

Teleskop in Parkposition
Teleskop in Parkposition
Teleskop mit Smartphone Live-Übertragung von Jupiter und Saturn
Teleskop mit Smartphone Live-Übertragung von Jupiter und Saturn
Vollständigen Artikel lesen

Ist der Vollmond eigentlich astro-fotogen?

Für Landschaftsfotografen ist der Vollmond ein reizvolles Objekt. Von den (Hobby-) Astronomen hört man allerdings eher schlechtes. Warum? Erstens ist der Vollmond verdammt hell. Somit sind ist die Beobachtung von Deep Sky Objekten um die Vollmondnacht herum schwierig bis unmöglich. Und der Vollmond selber scheint für die Teleskopbeobachtung weniger reizvoll. Die Sonne strahlt fast senkrecht auf die Oberfläche und somit fehlen Schatten- und Lichteffekte, die bei schräg einfallenden Sonnenstrahlen entstehen. Siehe z.B.:

Vollständigen Artikel lesen

Mein neues Spielzeug: AllSky Kamera am Raspberry Pi

Es ist der nächste Schritt, meine Vorliebe für Astronomie mit technischen Spielereien ala Mini Computer und Programmierung zu verbinden: die auf der Balkonterrasse befestigte AllSky Kamera, welche von einem Raspberry Pi gesteuert wird:

AllSky Kamera oben. Darunter die per Arduino programmierbare SenseBox Wetterstation, mit z.T. externen Sensoren (Thermometer sowie Luftdruckmesser in weißem Gehäuse, Feinstaubmesser) und Box mit ankommender USB Stromversorgung plus Notstrombatterie..
Raspberry Pi auf dem Fensterbrett. Rechts USB Hub für Stromversorgung der SenseBox. Am Fensterrahmen ein CalliopeMini zur Anzeige einiger Daten der SenseBox, welche der Twitterbot @RasPiVoNa aus opensensemap.org ausliest. Die USB Flachbandkabel gehen links zwischen Fenster und Rahmen zur Kamera und SenseBox.
Vollständigen artikel lesen