Ladekapazitäts-Verlust bei Kälte (BEV - NMC-Akku)

  • Hallo nach langer Zeit mal wieder :)

    Daß die ENTladekapazität in Richtung unter 0°C rapide fällt, kann man in unzähligen Webseiten lesen - aber die Ladekapazität bei Frost usw. wird gefühlt nie thematisiert.

    Doch als BEV-Fahrer wüßte ich gerne, ob bzw. wie stark sich auch die Lade(!)kapazität mit der Zelltempertur ändert. Hintergrund ist die Idee, den Verlauf der Nutzkapazität im Laufe des BEV-Lebens (bzw. den SoH des Akkus) anhand der Ladekapazität - berechnet aus Logdaten von Ladevorgängen - möglichst treffend selbst abzuschätzen.


    Konkret habe ich z.Zt. Carscanner-Daten von 2 Ladungen eines MG4 innerhalb von wenigen Wochen.

    Einmal wurden von 7 bis 100% SoC bei mittleren 7,8kW und 21,4°C mittlerer Zelltemperatur 55,03kWh eingeladen: das ergibt linear extrapoliert eine 0-100% Ladekapazität von 59,17kWh.

    Das andere Mal wurden von 8 bis 100% SoC bei mittleren 3,4kW und 15,4°C mittlerer Zelltemperatur 53,59kWh eingeladen: das ergibt linear extrapoliert eine 0-100% Ladekapazität von 58,25kWh, bzw. 1,5% weniger als bei der Ladung mit wärmeren Zellen.

    Das ist nicht allzuviel Unterschied, aber trotzdem: Kann diese Abweichung als Hauptursache tatsächlich die ca. 6K Differenz in den Zelltemperaturen haben?

  • Hallo Ulf,

    die SoHs sind kaum vergleichbar, weil letztlich doch sehr ungenau. 8% SoH könnten genauso gut 4 oder 12% sein. Diese Unsicherheit des jeweiligen Ladezustands beeinflusst die "Messung" naturgemäß stark. Wenn Du mit zwei grob unterschiedlichen Ladeleistungen arbeitest, verschärft sich das Problem der Vergleichbarkeit dann noch zusätzlich, weil der Wirkungsgrad der Ladeelektronik mit zunehmender Last erheblich ansteigt, bis er bei Volllast normalerweise sein Maximum erreicht.


    Die eigentliche Kapazität eines NMC-Akkus ändert sich bei verschiedenen Temperaturen aber eher nicht. Was sich mit der Temperatur ändert, ist sein Innenwiderstand. Der steigt bei kalten Zellen ganz erheblich, was dann seinerseits einen erhöhten Spannungsabfall bei Stromfluss innerhalb der Zelle und damit insgesamt einen Energieabfall bei der Entladung verursacht: Die Reichweite sinkt. Bei längeren Strecken wird dieser bei Kälte innenwiderstandsbedingte scheinbare Kapazitätsabfall aber nach 50 bis 100km verschwinden, weil durch die bei Stromfluss innerhalb der Zellen am erhöhten Innenwiderstand freiwerdende Leistung Wärme frei wird, welche die Zellen wieder in ihren normalen Temperaturbereich bringt. Die bei kalten Zellen entnommene Energie teilt sich also in zwei Anteile auf: Einen äußeren, der den Verbraucher treibt und einen inneren, der die Zellen wieder aufwärmt. Der Energieanteil, der zur Aufwärmung der Zellen "verbraucht" wird, steht danach natürlich nicht mehr zur Versorgung von Verbrauchern zur Verfügung und scheint dann zu fehlen. Was natürlich nur bei rein äußerer Betrachtung zutrifft. Man merkt das spätestens beim Laden, wenn die kalt nur relativ geringe Energiemengen abgebende Batterie dann bei der Ladung trotzdem wieder die normale Ladeenergie, also die normalen kWh, aufnimmt.


    Bei unserem Smart ED3 ist die Batterie mit 17kWh leider so klein, dass dieser Effekt kaum wirksam werden kann, wenn man die Batterie nicht gerade in einem Rutsch mit höherer Last leerfährt. In Fahrzeugen mit Batterien von 40kWh und mehr ist die Erwärmung der Batterie bei Kälte aber gut an einem bei längeren Strecken zunehmend weniger schnell abnehmenden SoH erkennbar.


    Grüße, Tom

  • die SoHs sind kaum vergleichbar, weil letztlich doch sehr ungenau. 8% SoH könnten genauso gut 4 oder 12% sein.

    Meintest Du hier eher SoC?

    Die Akkuspannungen vor dem Ladestart waren mit

    361,75V bei 21,4°C Zelltemperatur und abgelesenem 7% SoC bzw.

    363V bei 15,4°C Zelltemperatur und abgelesenem 8% SoC

    so nahe und plausibel beieienander, daß ich die Start-SoC schon für ziemlich realistisch halte.


    Wenn Du mit zwei grob unterschiedlichen Ladeleistungen arbeitest, verschärft sich das Problem der Vergleichbarkeit dann noch zusätzlich, weil der Wirkungsgrad der Ladeelektronik mit zunehmender Last erheblich ansteigt, bis er bei Volllast normalerweise sein Maximum erreicht.

    Soweit ich die Meßwerte verstehe, sind Akkuspannung und -strom (vom BMS ausgelesen, als Berechnungsgrundlage für die o.g. Ladeleistungsdaten) direkt "an den Klemmen" ermittelt, also ohne die Verluste der Ladeelektronik ;)


    Die eigentliche Kapazität eines NMC-Akkus ändert sich bei verschiedenen Temperaturen aber eher nicht. Was sich mit der Temperatur ändert, ist sein Innenwiderstand. Der steigt bei kalten Zellen ganz erheblich...

    Das ist die Erklärung für den im Winter täglich erlebten Nutzkapazitätsverlust, den man überall nachlesen kann.

    Aber ist der erhöhte Kalt-Innenwiderstand nicht auch beim Laden wirksam und verschlechtert den Ladewirkungsgrad entsprechend?

  • Ja klar, ich meinte natürlich den SoC (State of Charge), nicht den SoH (State of Health). So langsam kommt man ob der ganzen Abkürzungen und Fachausdrücke ins schwimmen...


    OK, das erklärt auch die von dir genannten Messwerte, die meinem Hinweis des Ladewirkungsgrads in gewisser Weise widersprechen. Ich messe die eingeladene Arbeit immer netzseitig und kriege so natürlich die Verluste der Ladeelektronik voll mit auf die Rechnung.


    Das Problem mit dem Innenwiderstand ist selbstverständlich ganz genauso beim Laden vorhanden: Ein Teil der Ladeleistung wird bei kalter Batterie am erhöhten Innenwiderstand zur Erwärmung derselben "verbraten" und verschlechtert auf diese Weise die Energiebilanz. Das ist der zweite Grund, weshalb der Verbrauch von E-Autos im Winter erheblich höher ist als im Sommer. (Der dritte ist die Nutzung der Heizung. :))


    Grüße, Tom

  • Hier mal die gesammelten Akkudaten vom MG4 laut OEM:

    Die Nettokapazitäten stammen aus Presse-Infos statt dem (technischen) Benutzerhandbuch und haben womöglich deshalb keinen Hinweis auf die Meßtemperatur.


    Um nochmal auf mein "Problem" zurückzukommen:

    Die eigentliche Kapazität eines NMC-Akkus ändert sich bei verschiedenen Temperaturen aber eher nicht

    In die Daten in meinem Startpost läßt sich eine Ladakapazitäts-Änderung von 1,5% auf 6K Änderung der mittleren Zelltemperatur hineininterpretieren oder -orakeln.

    Wäre das noch im Rahmen von Deinem "eher nicht", oder schon weit daneben?


    Siehe auch ein Video zur SoH-Messung per Ladedaten (Mahle-Prozedur):

    https://youtu.be/--hsxe-dy0Y?t=302

    -> Idealbedingungen

    a) Fahrzeug-Standzeit mindestens 2 Stunden

    b) Umgebungstemperatur 23°C

    Damit wird IMO erreicht, daß sich die Akkuzellen der Umgebungstemperatur deutlich anähern oder sogar ganz anpassen.

    Und 23°C sind AFAIK auch "zufällig" der Wert, der in technischer (Li-Ion-)Akkuliteratur am häufigsten als Standard genannt wird.

    Auch daraus läßt sich IMO orakeln, daß sich die Ladekapazität mit der Zelltemperatur (leicht) ändern könnte ... -|-:/

  • Damit hatte ich gemeint, dass sich der Energieinhalt von Lithium-Akkumulatoren nicht vermindert, nur weil sie mal kalt gelagert wurden. Erwärmt man die Zellen nach einer Kältephase wieder, steht auch sofort wieder die volle entnehmbare Kapazität zur Verfügung.


    Was bei Kälte typischerweise auftritt, ist also eine Verminderung der entnehmbaren Kapazität und dazu hatte ich ja schon geschrieben, dass diese Verminderung der entnehmbaren Kapazität seine Ursache an dem bei Kälte ansteigenden Innenwiderstand der Zellen selbst findet: Die Kapazitätsentnahme ist praktisch dieselbe, jedoch entfällt bei Kälte ein größerer Anteil der Kapazität auf die innerhalb der Zelle selbst am Innenwiderstand in Wärme umgewandelte Kapazität, so dass für Verbraucher nur ein um diesen inneren "Verbrauch" verminderter Teil zur Verfügung steht: Die entnehmbare Kapazität sinkt also um genau diesen Betrag.


    Dasselbe gilt entsprechend umgekehrt beim Laden: Auch hier entfällt ein Teil der eingeladenen Energie auf die zur Erwärmung erforderlich Energiemenge, so dass mehr Energie eingeladen werden muss.


    Es spielt natürlich auch eine Rolle, dass bei Kälte nicht mehr so tief entladen werden kann, weil die Zellenspannungen unter Last innenwiderstandbedingt niedriger liegen und es daher früher zur Abschaltung durch das BMS kommt. Wegen dieses Effekts sinkt dann die Gesamtkapazität der Zellen tatsächlich ein wenig (aber natürlich nicht dauerhaft, sondern nur temporär bei Kälte). In der Folge verbleibt bei kalten Zellen zwangsläufig ein größerer Energierest in der Batterie, der dann bei der nachfolgenden Aufladung auch nicht wieder eingeladen werden muss.


    All diese Effekte sind aber nur schwer zu quantifizieren, wenn nur die BMS-Batteriedaten zur Verfügung stehen. Im Labor lassen sich diese Effekte natürlich sehr genau messen.


    Ich hoffe, mein Geschwurbel hilft Dir weiter.


    Grüße, Tom

  • OK, dann schwurbele ich auch noch etwas, mit weiteren Zahlen ^^


    Bei den MG4 ist hierzulande am häufigsten der 64kWh-NMC-Akku verbaut, so auch bei dem Spender der o.g. Daten. Der Akku hat laut der obigen Tabelle einen 50%-SoC-4C-Ri von 62 mOhm.

    Die Verlustleistung daran berechnet sich zu Pv = R x I².


    Bei der o.g. 3,4kW-Ladung war I im Mittel 9,0A und Pv demnach 5,02Watt. Während der Ladedauer von 15:43 Stunden verpufften folglich rund 79Wh = 0,079 kWh = 0,14% der geladenen 53,59 kWh in Wärme; effektiv wurden also 53,51kWh geladen.

    Bei der 7,8kW-Ladung war I im Mittel 19,8A und Pv demnach 24,3Watt. Während der Ladedauer von 7:04 Stunden verpufften folglich rund 172Wh = 0,172 kWh = 0,31% der geladenen 55,03kWh in Wärme; effektiv wurden also 54,86kWh geladen.


    Auf einen 0-100%SoC Ladehub extrapoliert ergibt das

    53,51kWh / 0,97 = 55,16kWh bei der 3,4kW-Ladung und

    54,86kWh / 0,98 = 55,98 kWh bei der 7,8kW-Ladung,

    55,98kWh / 55,16kWh ergibt bei rausgerechnetem Innenwiderstand immer noch rund 1,5% mehr Ladekapazität auf Grundlage der 7,8kW-Ladung mit den um 6K wärmeren Zellen.


    Ein deutlich höherer Ri von 80 mOhm (statt 62 mOhm, willkürliche Annahme) bei der 3,4kW-Messung mit dem kälteren Akku hätte 0,101kWh Wärmeverluste ergeben, und eine extrapolierte 0-100%SoC-Ladehub-Kapazität von 55,14kWh. Das wären aber immer noch (gerundete) 1,5% weniger als bei der 7,8kW-Ladung mit warmem Akku.


    Ich weiß: 1,5% Abweichung zwischen 2 Messungen entsprechen schon einer recht guten Toleranzklasse. Allerdings wurden hier immer die gleichen "Meßgeräte" verwendet, nämlich die Bordsensoren des gleichen MG4 plus die Digital-Hard- und Software seines Bordsystems plus eines Tablets mit der Carscanner-Software. Daher möchte ich unterschiedliche Meßfehler als Ursache der abweichenden Ergebnisse bei beiden Ladungen erstmal ausschließen.


    Damit wären wir wieder bei der Grundfrage: Welche Ursachen außer einer temperaturabhängigen Ladekapazitätsdrift kannst Du Dir für die 1,5% Abweichung noch vorstellen?

  • Da Du Dich jeweils auf die entnehm- bzw. einladbaren Teile der Batteriekapazität beziehst, spielt die Temperatur dabei natürlich eine Rolle. Aber die von Dir dargelegten Unterschiede lassen meiner Meinung nach keine eindeutige Aussage zu, weil schon die direkte Übernahme der BMS-SoCs in Deine Berechnung einen erheblichen Messfehler birgt, weil Batteriecomputer - und BMS natürlich auch - den SoC nicht messen, sondern nur schätzen bzw. berechnen können. Und das funktioniert eben mal besser und mal schlechter, ist also mehr oder weniger fehlerbehaftet.


    Es ist vergleichbar mit Verbrauchsmessungen beim Verbrenner: Da die Tankinhalte zu Beginn und zum Ende jedes Tankvorgangs nur mehr oder weniger grob geschätzt werden können, ergeben Einzelmessungen keinen Sinn. Jedenfalls nicht, wenn man für Abweichungen im Bereich von 1,5% Erklärungen sucht. Man muss schon wenigstens 10 Tankvorgänge durchgeführt haben, damit diese unvermeidlichen "Messfehler" sich einigermaßen egalisieren. Nimmt man zwei einzelne Tankvorgänge und vergleicht diese, z.B. um Verbrauchsänderungen wegen unterschiedlicher Fahrweisen zu messen, kommt dabei praktisch nur selten etwas nahrhaftes heraus. Die von Dir genannten 1,5% Unterschied liegen m.E. absolut im Bereich der Messungenauigkeit, eben weil das BMS keine wirklich belastbaren Daten liefert. Nimm eine einzelne Zelle und experimentiere damit. Dann bekommst Du unter Laborbedingungen auch exakte Aussagen.


    Das Problem erinnert mich an die damals erlebten Effekte bei Einführung digitaler Multimeter. Wenn da 68,92V angezeigt wurden, dann haben die meisten das arglos geglaubt. Bei einer Analoganzeige war dagegen jedem klar, dass es auch durchaus 68,5V oder 69,5V sein könnten, je nachdem wie man bei der Ablesung den Kopf hält.


    Wenn da dann noch irgendwo "Class 1.5" stand, wussten die meisten ja noch nicht mal, was das zu bedeuten hat. Aber das machte auch nichts, weil die Ablesung selbst ja schon einen Messfehler in ganz ähnlicher Größe haben konnte. 8o


    Aber mal ganz ehrlich: Mir ist immer noch nicht so richtig klar, worauf Du im Kern eigentlich hinaus willst. Du schriebst oben:


    Doch als BEV-Fahrer wüßte ich gerne, ob bzw. wie stark sich auch die Lade(!)kapazität mit der Zelltempertur ändert. Hintergrund ist die Idee, den Verlauf der Nutzkapazität im Laufe des BEV-Lebens (bzw. den SoH des Akkus) anhand der Ladekapazität - berechnet aus Logdaten von Ladevorgängen - möglichst treffend selbst abzuschätzen.

    Das dürfte ja schon daran scheitern, weil Dir neben den SoC-Angaben des BMS für die Gegenüberstellung von Lade-Arbeitswerten (also den eingeladenen kWh) und den mit der Batterieladung nur die gefahrenen Kilometern als Vergleichsgrundlage bleiben. Die gefahrene Strecke ist aber als Messgröße meist unbrauchbar, weil man heute so und morgen doch wieder anders fährt. Mal heizt man, mal nicht, mal schleicht man in der Kolonne, mal hat man freie Fahrt. Mal schleift die Bremse wegen klemmender Bremskolben, mal schwankt der Reifendruck. Der Energieverbrauch pro zurückgelegtem Kilometer schwankt also schon aus einer Vielzahl von Gründen so stark, dass er schwerlich als hinreichend genaue Bemessungsreferenz zu einem tatsächlichen Kapazitätsverlust der Fahrbatterie taugt. Man wird einer Messung wenigstens eine größere Menge von SoC-"Messungen", bzw. erhebliche Fahrleistungen und "Ladearbeitsverbräuche" zugrundelegen müssen, um wirklich schlauer zu werden. Dabei würden sich dann die Messfehler einigermaßen ausgleichen.


    In meinem Gewerbe habe ich oft mit der Frage zu tun, wie groß die Kapazität einer Zelle oder einer Batterie ist. Ich nehme dann immer ein Netzteil und ein Kapazitäts-Messgerät, lade bei Zimmertemperatur sorgfältig randvoll und entlade dann mit einem Kapazitäts-Messgerät meines Vertrauens. Das ergibt sehr genaue und sogar reproduzierbare Messungen. Aber das ist eben auch Labormaßstab. Nur durch Auswertung von SoC-Werten und Ladearbeit ist das m.E. nicht zu erreichen.


    Grüße, Tom

  • Da Du Dich jeweils auf die entnehm- bzw. einladbaren Teile der Batteriekapazität beziehst, spielt die Temperatur dabei natürlich eine Rolle. Aber die von Dir dargelegten Unterschiede lassen meiner Meinung nach keine eindeutige Aussage zu, weil schon die direkte Übernahme der BMS-SoCs in Deine Berechnung einen erheblichen Messfehler birgt, weil Batteriecomputer - und BMS natürlich auch - den SoC nicht messen, sondern nur schätzen bzw. berechnen können. Und das funktioniert eben mal besser und mal schlechter, ist also mehr oder weniger fehlerbehaftet.


    Ich verstehe was Du meinst.

    Allerdings gibts es professionelle SoH-Schätzer wie z.B. Aviloo, die als Datengrundlage für ihre Berechnungen auch "nur" auf das BMS zugreifen können.

    Beim Premium-Test wird der Akku von 100%-vollgeladen bis unter 10% Rest-SoC leergefahren, dabei wird AFAIK die entnommene Energiemenge aufintegriert, mittels Korrekturen u.a. für die Zelltemperatur auf Normbedingungen(?) umgerechnet und dann auch wieder auf auf 100-0% Kapazität extrapoliert. Das Verfahren ist sogar offiziell zertifiziert, womit es wohl den Anschein hat, auf der Grundlage von BMS-Daten(!) nicht nur Unsinns-Ergebnisse zu liefern.

    Und ich möchte eben auf der gleichen BMS-Datengrundlage (nur eben zur Lade-Energie, da das für den Endverbraucher leichter zu händeln ist) auch den SoH beschätzrechnen.


    Wenn Du schreibst

    Da Du Dich jeweils auf die entnehm- bzw. einladbaren Teile der Batteriekapazität beziehst, spielt die Temperatur dabei natürlich eine Rolle.

    schließt Du ja nicht aus, daß meine Vermutung zur Temperaturabhängigkeit der Ladekapazität (ca. 1,5% pro 6K) eher richtig als völlig falsch sein könnte.

    Natürlich ist die minimalste Datengrundlage aus meinen 2 o.g. "Messungen" noch kaum belastbar, aber ich werde versuchen, die Datenbasis unvoreingenommen zu erweitern ;)

  • Hallo Tom,


    in diesem Zusammenhang muss ich meine alten Passat 35i Variant (mit nur so viel Technik wie nötig) und ausreichend großem Tankinhalt von 90 Liter loben, welcher für durchschnittlich 1800 Kilometer reicht. Wenn irgendwo der Diesel deutlich günstiger angeboten wird dann tanke ich randvoll und setze anschließend den Tageskilometerstand wieder auf Null, so weiß ich immer den genauen Dieselverbrauch zwischen den einzelnen Tankvorgängen und kann auch den Durchschnittsverbrauch/100 Kilometer genau berechnen.

  • Die Sache mit dem "randvoll tanken" habe ich auch immer wieder gerne versucht und bin dabei doch regelmäßig gescheitert: Das Kraftstoffvolumen schwankt temperaturabhängig und bei vielen Fahrzeugmodellen bleiben gerne Luftblasen im Tank zurück (besonders oft bei geteilten Satteltanks), die oft erst beim Fahren wieder ausblubbern. Soviel dann mal zu "randvoll". :P


    Ich gucke immer gern bei Spritmonitor.de, wo ich auch selbst oO) ein Konto habe. Wenn man sich dann die bei vielen Fahrzeugen stark schwankenden Verbräuche anschaut, wird in der Verteilung der Normabweichungen schnell klar, dass es sich oft einfach um Falschmessungen durch uneinheitliche Betankungen handelt. Der Vorteil ist, dass sich diese Schwankungen bei einer größeren Anzahl von Messungen wieder wunderbar nivellieren. :)


    Grüße, Tom

  • Der gute alte Passat 35i hat theoretisch eine recht große Luftblase mit ca. 20 Liter, öffnet man aber gegen Ende des Tankvorganges mit dem Rüssel das Entlüftungsventil am Einfüllstutzen, dann passen fast 91 Liter in den großzügigen Dieseltank!


    Mit meinen beiden Passat 35i haben ich einen Jahresdurchschnittsverbrauch von ca. 5 Liter/100 Kilometer und der betagte Audi 80 B4 TDI nimmt sogar unter 5 Liter/100 Kilometer, obwohl meine Frau überwiegend nur Strecken bis max. 20 Kilometer damt fährt. Diese Verbrauchswerte sind bei vorausschauender und vorschriftsmäßiger Fahrweise, problemlos erreichbar!

  • der angezeigte SoC stimmt zusätzlich auch nicht mit dem internen SoC der Batterie überein

    Stichworte Netto- und Bruttokapazität

    selbst bei einem angezeigtem SoC von 0% kann man noch ein paar Kilometer fahren. das BMS hält "oben" und "unten" immer einen Puffer bereit, dieser Puffer ist oft nichtmal fix, was sämtliche Berechnungen auf SoC Basis hinfällig macht


    wir sind nach 4 Jahren Enyaq im Sommer auf das neue Model Y mit LFP umgestiegen


    edit: Ewald: ich habe neben einem Volvo 760 Turbo auch noch einen Passat 35i in der Garage stehen, mit H Zulassung. einen seltenen G60 syncro Variant mit Vollausstattung.

    das sind noch Top Fahrzeuge :)

  • Ich fahre schon seit 28 Jahren Passat 35i 1,9 Liter Turbo Diesel, überzeugt hat mich damals der niedrige Durchschnittsverbrauch von ca. 5 Liter Diesel, der überdurchschnittlich große 90 Lter Tank für bis zu 1800 Kilometer Reichweite, die lange Ladefläche womit man sogar Norm Türzargen und Türblätter einladen kann, ohne die Heckklappe einen Spalt offen zu lassen. Leider sind in den letzten 30 Jahren keine gleichwertig funktionellen Nutzfahrzeuge nachgekommen, welche in dieser Größe sparsamer vom Verbrauch oder zuverlässiger von der einfachen Technik wären! Der alte vollverzinkte Oktavia 1U5 TDI ist auch nicht schlecht, macht aber schon deutlich öfter Probleme wie der zuverlässige Passat 35i mit einfacherer Technik.

  • Zum Thema möchte ich nochmal meine Datenbasis anhand von 2 Diagrammen verdeutlichen. Beide zeigen jeweils die kumulierten Lade-kWh (unten), die Akkuspannung (Mitte) und den Verlauf der Ladeleistung (oben) über dem BMS-SoC, der mit einer Auflösung von 0,1% ausgegeben wird und damit fast 10-fach präziser ist als der gängige Display-SoC mit glatten %. bis 100%. Allerdings endet die Ladung schon bei 93% BMS-SoC.


    Die Punkte zeigen aufgezeichnete Daten, die Linien dazwischen überbrücken die Zeiten ohne aufgezeichnete Daten.


    Die Ladeleistungen habe ich mit hohen Faktoren vergrößert, damit Schwankungen besser erkennbar sind (siehe Legende). Gleichzeitig fällt auf, daß die Ladeleistung während der ganzen Ladungen weitestgehend konstant gehalten wird:



    Jeweils über dem Diagramm steht der Rechenweg für die extrapolierte 100% SoC-Ladekapazität.

    Die Originaldaten zeigen, daß der gleiche Akku bei einer 0-100% Ladung mit den kalten Zellen theoretisch 58,16kWh aufgenommen hätte, mit den warmen Zellen wären es 59,53kWh gewesen.


    Nun ließe sich einwenden, daß das BMS den kalten Akku zwischen ca. 23 und 82% BMS-SoC mit soviel höherer Leistung geladen haben könnte, daß die gleiche 0-100%-Ladekapazität herausgekommen wäre wie beim warmen Akku: denn so etwas könnte sich z.B. völlig unbemerkt in der Datenlücke zwischen 23 und 82% BMS-SoC verstecken.

    Um das zu simulieren, habe ich im 2. Diagramm die Ladeleistung zwischen 23 und 82% BMS-SoC so weit angehoben, daß für den kalten Akku die gleiche (gefakte) 0-100%-Ladekapazität berechnet wird wie für den warmen Akku:




    Diese Anhebung der durchschnittlichen Kalt-Ladeleistung von 3,4 auf 3,53kW läge so weit außerhalb des normalen Regel-Rauschens, daß solche Erklärungen für die Abweichung der berechneten Ladekapazität "kalt" und "warm" IMO praktisch ausscheiden.

    Umgekehrt unterstützt diese Überlegung IMO meine Vermutung der unterschiedlichen Zelltemperatur als (Haupt)Ursache der Abweichung der berechneten Ladekapazität "kalt" und "warm".

    Was meint Ihr dazu?

  • Also ich muss zugeben, deinen Vortrag leider nicht verstanden zu haben.


    (Das kann aber auch daran liegen, dass ich unmittelbar zuvor einen Vortrag über den Absturz des Bitcoins mit Candlecharts und superschnellgesprochenen Tradererklärungen gesehen habe und jetzt angesichts deiner Graphen gerade nicht mehr weiß, wo oben und wo unten ist... :S)


    Grüße, Tom

  • Sodele, das Problem hat sich wohl minimiert, seit ich als Rechengrundlage die SoC-Daten vom BMS ignoriere und hauptsächlich die "Primärdaten" Akku-Klemmenspannung, Ladespannung, -strom und -zeit beim Ladestart und -ende nehme.

    Daraus läßt sich analog zum Kondensator eine Ladekapazität (kWh/Volt) berechnen: die beträgt ca. 0,71kWh pro Volt Ladehub und weicht bei den beiden Ladungen (trotz ca. 6K Temperaturdifferenz der Zellen) um weniger als 1 Promille ab :)


    Leider weiß ich nicht, welcher kWh-Kapazität diese 0,71kWh/Volt entsprechen (weil ich den vom BEV-OEM definierten Entladehub nicht kenne) ... aber für die Überwachung des Akkus im Laufe der Jahre dürfte diese Berechnung verläßlicher sein als die SoC-gestütze Methode.

Jetzt mitmachen!

Sie haben noch kein Benutzerkonto auf unserer Seite? Registrieren Sie sich kostenlos und nehmen Sie an unserer Community teil!