Naja, also die Größenordnung muss schon stimmen. Das liegt an unserm Alter bzw. Fähigkeiten. Wir sind Anfang der 1960er geboren
Beispiel: Morgen fahren wir hier in Garmisch zur Reintalanger Hütte. Das sollten so knapp unter 1000HM sein laut
Sigma DC. Wenn ich dafür in Alltrails 1600 angezeigt bekomme fahre ich das nicht. Das kann ich nicht machen. Und meine Partnerin schon gar nicht ... bei den zu erwartenden Temperaturen.
Das Thema Höhenmeter/korrekte Höhenakkumulation ist leider so alt, wie es Bikecomputer bzw. entsprechende Geräte mit Aufzeichnungsfunktion gibt.
Hat man sich zu Hac4 Zeiten noch mit den reinen barometerbasierten Höhendaten - die damals noch sehr grob auflösend waren (Abtastrate in >=1 Meter Schritten) - zufrieden gegeben, die beim Hac4 und in den damals dazugehörenden hactronic/CicloTour Programmen noch durch eine Art Glättungsfilter (Hysterese) gejagt wurden, den Ciclosport mit der Zeit bei den Hac4 Nachfolgern übrigens mehrmals angepasst hat, ist das Thema seit Verknüpfung mit GPS-Daten eigentlich nicht mehr kontrollierbar.
Klaus, der Kopf hinter dem ehemaligen GPSies hat in seinem Block das Thema bei 'der Suche nach der Wahrheit' mehrmals beleuchtet, auch ich hatte früher öfters mal etwas dazu geschrieben, aber es gibt nach wie vor keine universelle Lösung. Leider sind Klaus' Blog Beiträge, so wie es ausschaut, mit dem Ende von GPSies ebenfalls von der Bildfläche verschwunden :-(
https://www.google.com/search?q=gps...me..69i57j0.5375j0j7&sourceid=chrome&ie=UTF-8
Ich möchte mich jetzt gar nicht einklinken, aber hier ist ein recht gute Erläuterung, die auf eine Punkte eingeht:
https://www.dreilaenderbike.de/cms/upload/Bayerischer_Wald/Trans_Bayerwald/Hoehenmeterabweichung.pdf
Mein persönliches Fazit:
GPS-Daten:
Die meisten GPS Portale korrigieren eingehende bzw. online designte Routen anhand einer Höhenwert-Datenbank (meistens SRTM-Daten basiert, die immer noch, verglichen mit barometerbasierten Höhendaten, eine recht grobe Auflösung aufweisen). Daher ist es nötig, die Höhenkurve zu glätten (oft dürfte der bekannte Douglas-Peucker Algorithmus genutzt werden), um dann die Höhenwerte einer Route/Tracks zu akkumulieren. Das kann mitunter zu guten Ergebnissen führen, letztlich ist das aber immer nur eine grobe Annäherung.
Barometerbasierte Daten:
Unter normalen Bedingungen (selbst ein Wetterumschwung hat in der Regel nur begrenzt Einfluss auf die Berechnung der kumulierten Höhenwerte!) liefern barometerbasierte Daten die besten Ergebnisse.
Leider ist die Auflösung der Barometermesssonden immer feiner geworden (der hier erwähnte
Edge speichert die Höhenwerte m.W. mit Nachkommastellen auf, als quasi in cm Schritten), sodass einfache Kumulierungsfilter (z.B. Hysterese von 3 Meter) nicht mehr die Ergebnisse liefern, wie das früher der Fall war.
Daher kann man z.B. Hac4 Daten nicht mehr mit den Daten aktueller Bike-Computer vergleichen.
Ein Filter ist aber nötig, da sonst selbst kleinste Hubbel als auch Luftverwirbelungen die Daten verfälschen würden -> da ist diese feine Auflösung m.E. sogar kontraproduktiv.
Garmins Basecamp wird die importierten Daten (GPX-Datei) wohl nicht anhand einer SRTM-Datenbank korrigieren - wie das die meisten Internetportale machen -, sondern lediglich über die Datenreihen einen Filter (Hysteresefaktor xy) jagen und so die Auf- und Abstiegsmeter berechnen.
Das erklärt auch, weshalb viele Internetportale bei der Analyse gleich aufliegen, PC-Programme, die die Daten nicht anhand einer Höhendatenbank korrigieren, aber mitunter größere Abweichungen aufweisen.
Ich selbst verwende in meinen Programmen einen einfachen Hysteresefilter, den der User ggfs. justieren kann. Damit kann man in der Regel gute Annäherungen erzielen (vor allem bei barometerbasierten Daten), bei sprunghaften GPS-Daten (also per GPS-Koordinaten ermittelten Höhenwerte) ist das Ergebnis mitunter aber auch mal daneben, sodass es dann Sinn macht, die GPS-Daten anhand von SRTM-Daten zu 'reparieren'.
Das bedeutet aber nicht, dass man nach dieser nachträglichen Reparatur wirklich genaue Ausgangsdaten hätte, da die SRTM Daten immer noch eine relativ grobe Auflösung von 30m x 30m aufweisen. Und genaue Ausgangsdaten sind bei Berechnungen (Messtechnik) eigentlich das A und O, denn anhand von 'verrauschten' Daten kann man keine genauen Ergebnisse erzielen und auch nicht berechnen.
Ich habe früher selbst mal mit diversen Filtern 'gespielt', bin aber quasi zur gleichen Erkenntnis gekommen, wie Klaus B. (der GPSies Papa), sodass ich dann wieder den einfachen Hysterese-Faktor verwendet habe. Schade, dass Klaus' Blog-Beitrag nicht mehr abrufbar ist, denn da hat er vieles aus seiner Entwicklerperspektive zusammen getragen (und Klaus dürfte anhand der Datenmasse, die er unter seinen Fittichen hatte, wirklich sehr kompetent in der Sache sein).
Was jetzt richtig und was jetzt falsch ist, da kann man jahrelang diskutieren und wird imho keine Lösung finden
