”To smutne, że głupcy są tak pewni siebie, a ludzie mądrzy tak pełni wątpliwości” – Bernard Russel
Autor artykułu nie kieruje motta osobowo, ale zwraca uwagę na dominację narracji tzw. głównego nurtu jako nieznoszącego innej myśli niż obowiązujący bezwarunkowo kolor zielony. Nie antagonizując też różnych technologii wytwarzania energii elektrycznej, głównie tych, które w nieprawidłowy sposób nazywane są „odnawialnymi”, ponieważ energia co do fizycznej zasady odnawialna nie jest z racji chociażby podstawowego prawa sprawności energetycznej, której kwintesencją jest Perpetuum Mobile. Co najwyżej możemy mówić o wykorzystaniu do wytwarzania niektórych jej form naturalnych źródeł energii takich jak m.in. słońce, ruch powietrza i powstającego wiatru oraz ruch wody, zaliczanych administracyjne do źródeł „bezemisyjnych”, bo z pewnością nie odnawialnych.
Dla uporządkowania pojęć i ich znaczenia energetycznego warto przypomnieć, że energia, o czym większość nazywających siebie ekologami zapomniała, co do zasady dzieli się tylko na trzy podstawowe postaci energii pierwotnej tj.:
- energię potencjalną,
- energię kinetyczną,
- energię chemiczną.
I dlatego co do tej samej zasady tylko te formy mogą z sukcesem być rozpatrywane jako ewentualne magazyny energii, lub ze stratą przemiany wynikającą z jej przekształcania mogą być zamieniane w inne postaci zmagazynowanej energii np. cieplnej, elektrycznej, chemicznych akumulatorów lub sprężonej materii, albo wirujących mas w postaci kół bezwładnościowych itp.
Tym razem skupię się na cechach charakteryzujących energię kinetyczną wiatru. Nie ulega najmniejszej wątpliwości, że ruch termiczny powietrza atmosferycznego, człowiek od ponad wielu wieków potrafił wykorzystać do napędów najpierw maszyn prostych takich jak silniki wiatrowe lub żagle w transporcie wodnym.
Postęp techniczny we współczesnym świecie spowodował, że tę cechę energii kinetycznej wiatru, daje się zaprzęgnąć do pracy na rzecz człowieka. Tu mamy zderzenie dwóch istotnych zjawisk naznaczonych ideologią ochrony środowiska naturalnego. Pierwsze z nich to wykorzystanie siły wiatru w różnego rodzaju zaawansowanych technologicznie konstrukcjach wież wiatrowych, wytwarzających energię elektryczną – czyli pozyskiwania najszlachetniejszej formy energii powszechnie zużywanej przez jej odbiorców końcowych indywidualnych i przemysłowych. Nie byłoby zatem nic kontrowersyjnego w tym, gdyby coraz szersze grona wielbicieli rozwoju branży tylko tych technologii w elektroenergetyce nie zapędzili się na skrajne pozycje właśnie z powodów wiary, iż ta technologia i zbliżona z nią technologia energii słonecznej – nie doprowadziły do twierdzenia, że to właśnie one muszą (tu przymus) doprowadzić do pozyskiwania energii elektrycznej w 100% tylko z tych źródeł. Tymczasem to nic bardziej mylnego i kosztownego!!! O czym będzie dalej.
Zwolennicy preferowanych OZE zapomnieli znów o właściwej równowadze rozwoju wytwarzania energii elektrycznej z wykorzystaniem najlepszych technologii zapewniających bezpieczeństwo energetyczne odbiorców, głównie o tych technologiach dających ciągłość dostaw energii o właściwych jakościowo parametrach – tj. napięciu i częstotliwości, bo korzystamy niemal całkowicie z prądu zmiennego dostarczanego przez rozbudowane systemy energetyczne, które muszą mieć zachowane całe mnóstwo warunków technicznych, aby prawidłowo i bezpiecznie dla użytkownika funkcjonowały, czego nie zapewniają wspomniane źródła istotnie zależne od warunków pogodowych.
Drugie ważne zjawisko związane z ideologią ekorozwoju, to tzw. ślad węglowy czyli obliczeniowy wskaźnik zużycia kopalnych paliw pierwotnych zawierających węgiel pierwiastkowy, który w procesach produkcyjnych przekształca się w emitowany gaz cieplarniany CO2. I tu dla porównywalności jeśli prawidłowo przeanalizujemy wszystkie składniki zużycia materiałów i energii na wytworzenie źródła wiatrowego np. w postaci wieży wiatrowej o mocy średniej 3 MW (najpopularniejsza moc wiatraka) niezależnie od tego czy jest na lądzie, czy na morzu oraz przeliczymy dla porównywalności emisji na jednostkę energii (1 MWh) pozyskanej z tego źródła, to się okazuje, że niemal 3 – 4–krotnie więcej CO2 jest emitowane do atmosfery w związku z ich powstaniem, niż byłoby wyemitowane na źródła energii konwencjonalnej lub jądrowej. Taką dysproporcję mierzoną jednostką energii elektrycznej powoduje nieporównywalnie niska produktywność źródła wiatrowego, mierzonego wskaźnikiem rocznego wykorzystania mocy zainstalowanej tzw. Capacity Factor (CF). Jest to prosty wskaźnik czasu obliczonego obiektywnie jako wynik podzielenia ilości energii wytworzonej i zmierzonej w [MWh] w roku, podzielonej przez moc zainstalowaną w [MW], co daje w wyniku czas pracy tej mocy zainstalowanej w wiatraku, a następnie podzielony ten czas pracy przez całkowitą liczbę godzin w roku nieprzestępnym, czyli przez 8760 h – takie przeliczenie daje względny wskaźnik CF.
Skąd się bierze wyższy ślad węglowy w źródłach wiatrowych?
Wystarczy odnotować, że tylko na wieżę stalową o wysokości ok. 100 m, co obecnie jest standardem, potrzebne jest zużycie w hutnictwie ponad 400 ton węgla koksującego, czyli węgla o najwyższej jakości. Na wyprodukowanie fundamentu pod wieżę, to kolejne 300 ton węgla niezbędnego do wyprodukowania cementu. Na wyprodukowanie stalowej gondoli kryjącej generator, przekształtniki i instalacje elektryczne, kable, przekładnie mechaniczne, których wyprodukowanie wymaga zużycia kolejnych 200–250 ton węgla energetycznego. Na wyprodukowanie 60–80 ton stalowo–kompozytowych śmigieł, potrzeba kompozytów i włókna szklanego, zużywanego w wielkiej chemii węgla rzędu 100 ton. Następnie trzeba doliczyć transformatory, linie przesyłowe i całą aparaturę łączeniową i rozdzielczą – to kolejne ok. 150 ton węgla energetycznego. Jakby nie szacować, jedna wieża wiatrakowa wymaga zużycia ponad 1300 ton węgla najlepszej jakości, którego zużycie jest ściśle związane z emisją zbliżoną do 1000 ton CO2 – praw fizyki i chemii nie da się oszukać, a środowiska tym bardziej.
Dla farm wiatrowych lądowych w Polsce jak można prześledzić w dostępnych danych publikowanych przez URE wskaźnik CF wynosi od 0,2 do 0,23, czyli dostępność mocy zainstalowanej rzadko przekracza 2000 h/r. Natomiast dane z farm wiatrowych morskich dostępne w Danii, Niemczech, Wielkiej Brytanii czy Szwecji ujawniają wartości CF nie większe na Bałtyku niż 0,28–0,31 co odpowiada czasowi ok. 2700 h/r, a na Morzu Północnym 0,35–0,38 co odpowiada czasowi ok. 3300 h/r. Rodzi się zatem uzasadnione pytanie: skąd ma być energia elektryczna, kiedy ponad 5400 h/r źródła te nie dostarczają potrzebnej mocy?
Autor felietonu, tak bardzo naciska na formę prezentacji produkcji energii elektrycznej z różnych źródeł na wykresach uporządkowanych, ponieważ są one także „dowodem w sprawie”, że twórca prezentacji lub analityk pracuje prawidłowo i merytorycznie.
Prawidłowo wykonane wykresy uporządkowane dowodzą, że przeanalizowano każdą z 8760 godzin w roku nieprzestępnym, że wyliczono obciążenie produkcją energii ze źródeł, ale i np. ładowania magazynów, i przy takiej to, a takiej mocy zainstalowanej osiągniemy taką to, a taką produkcję, co rodzi następujące skutki ekonomiczne.
Poniżej prawidłowo wykonane wykresy uporządkowane generacji ze źródeł wiatrowych w Niemczech i w Polsce, dla porównania należy je przeliczyć w wielkościach względnych do mocy zainstalowanych, które znacznie się między sobą różnią. Natomiast przeliczone na jednostki względem mocy będą oceniane jedną miarą. Jak widać, kształt mają niemal taki sam, co oznacza porównywalność warunków występowania wiatrów w obydwu krajach.
Źródło: „Kłamstwa Klimatyczne” – Jean Grimaud
Wydawnictwo Poligraf 2021 r.
Z tych wykresów łatwo wywnioskować, że „rekordowe” zbliżone do mocy zainstalowanej wytwarzanie trwa mniej niż 200 h/r (zaznaczone pionową kreską), a przez połowę roku pracuje zaledwie 25–27% mocy, co w rzeczywistości oznacza, że większość mocy zainstalowanej zwyczajnie stoi bezproduktywnie. Łatwo odnotować, że zaledwie 10% wielkiej mocy zainstalowanej pracuje 6800 h/r, co oznacza, że 90% mocy jest w tym czasie bezczynna. Dla odbiorców energii oznacza to, że muszą być zasilani z innych dyspozycyjnych źródeł energii elektrycznej.
W propozycjach ekologów, występujące nadwyżki energii (ponad zapotrzebowanie) ze źródeł wiatrowych odpowiadające ich „rekordom” wytwarzanej mocy, trwających 200–300 h/r miałyby być wykorzystane, na wytwarzanie wodoru w elektrolizerniach. Elektrolizernia jako instalacja do produkcji wodoru jest kosztowna, a pracująca przez tak krótki czas nie ma żadnych szans na rozsądny okres zwrotu z kapitału zainwestowanego. Ponadto łańcuch technologiczny: energia elektryczna–elektroliza–wodór–spalenie wodoru–ciepło–energia pary–energia elektryczna–wykazuje sprawność przemiany poniżej 6%. Ewentualne wykorzystanie wodoru z elektrolizy do produkcji energii elektrycznej w ogniwie paliwowym to sprawność przemiany, nie przekracza 13%. W żaden sposób nie da się dowieść, że wodór jako „magazyn” nadmiarowej energii elektrycznej nie jest marnotrawstwem najszlachetniej formy energii, jaką jest energia elektryczna tracona w przemianach na poziomie 87–96%. Każda elektrolizernia musi mieć kosztowny i zaawansowany technicznie (drogi) system ATEX, czyli warunki wykluczające eksplozję i pożar.
Popatrzmy na ekonomię i rynkowe aspekty energetyki wiatrowej:
Bazując na ponad 20–letnich badaniach brytyjskiego ekonomisty Gordona Hughesa z Uniwersytetu Ekonomicznego w Manchester notującego wyniki ekonomiczne wg zeznań w izbach obrachunkowych, wykazał znaczącą różnicę danych ze studiów wykonalności ogłaszanych publicznie przez deweloperów dla potencjalnych akcjonariuszy, a tymi, które w izbach obrachunkowych odpowiadają realiom i nie mogą być fałszywe ze względu na wysoką karalność. Ze statystyk i analiz 350 SPV (spółek inwestycyjnych celowych) zarejestrowanych w UK i Danii posiadających wielkie farmy PV oraz MFW na Morzu Północnym i na Bałtyku, wynika, że są one pomimo wysokich dotacji trwale nierentowne i mają łączne (skumulowane) koszty wyższe od cen rynkowych notowanych publicznie na Giełdach Energii w UK oraz Nord Pool w Skandynawii, wg mechanizmu Merit Order, czyli cen równowagi bilansowej ofert, zatem z ceną płaconą dla wszystkich oferentów, którzy dostają cenę rynkową równą lub niższą od ceny zbilansowania podaży i popytu na energię. Jest to cena najdroższej elektrowni zapewniającej bilans w danej godzinie. Wykres łącznej generacji ze źródeł wiatrowych, fotowoltaicznych i z miksu różnych technologii dostępnych w systemie w funkcji cen netto ilustruje poniższy rysunek zaczerpnięty z raportów G. Hughes’a.
Warto odnotować z powyższej ilustracji, że wytwórcy energii bazujących na tych technologiach OZE (wiatru i fotowoltaiki) oferują na rynku SPOT ceny ujemne, czyli mamy do czynienia z patologią dumpingu na rynku jak należy to zjawisko kwalifikować wśród działań zakazanych co do zasady na rynkach towarowych. Jednocześnie oznacza to, iż na rynku SPOT wcześniej ci wytwórcy osiągnęli zyski nadzwyczajne, pozwalające im na dumping cenowy – to jest nic innego jak w normalnej gospodarce zjawisko karalne, a z pewnością prowadzące do wysokich cen energii elektrycznej.
Jeśli prawidłowo prześledzimy powyższy obiektywnie sporządzony wykres, że dla zaznaczonej ceny energii np. 25 GBP/MWh tę cenę uzyskujemy z najmniejszego zaangażowania miksu różnych źródeł wytwarzania w systemie elektroenergetycznym tj. na względnym poziomie 0,1 wartości mocy, to dla tej samej ceny musimy zaangażować ponad 4,4 razy więcej mocy ze źródeł wiatrowych i ponad 8,2 źródeł PV. Źródła te jak widać, nie są tanie inwestycyjnie, a z pewnością nie gwarantują niskich cen netto energii na rynkach giełdowych. Prof. G. Hughes wyliczył, że gdyby w 2020 r., zlikwidowano dopłaty publiczne do tych źródeł wiatrowych i fotowoltaicznych, to cena na rynku EEX (giełda energii w Lipsku) musiałaby w Niemczech wzrosnąć ponad sześciokrotnie!!! Tym samym sporządzający raport, publicznie ostrzegał, akcjonariuszy tych spółek notowanych na giełdach kapitałowych, że w świetle prawidłowo prowadzonej działalności gospodarczej i księgowej, spółki FW i PV bez dopłat są faktycznie bankrutami.
Jeden dosłownie rzut oka na uporządkowany wykres generacji z Farm Wiatrowych w zasadzie ucina dyskusję o szerokim wykorzystaniu mitycznej „nadwyżki tego źródła OZE do przerobienia na wodór”, bo gołym okiem widać nikłe prawdopodobieństwo jej powstawania. Ponieważ np. nie zawsze mamy wichury w dni świąteczne, kiedy zapotrzebowanie na energię jest zwykle niskie, a tak jest w każdym tygodniu, a moc zainstalowana jak widać, pracuje maksymalne ok. 200–300 h w roku. O tych mankamentach ekonomicznych FW wiedzieli lobbyści energetyki wiatrowej, dlatego zadbali o ustawowe gwarancje, elegancko prawnie nazwaną w ustawie o „pokrywaniu ujemnego salda” wpadkę niedostatecznych przychodów poprzez zapewnioną dotację na poziomie 319,5 zł/MWh indeksowaną corocznie. Tę kwotę będą zawsze pokrywali końcowi odbiorcy energii, zawiadamiani zestawieniem kosztów w fakturze do zapłacenia.
Problem ogromnych kosztów generowanych w przesyle i dystrybucji przez FW
Każde źródło energii pracujące w trybie „On grid” – czyli przyłączane do wspólnej sieci dystrybucyjnej lub przesyłowej, jest zawsze powodem wzrostu mocy zwarciowej. Jednym ze wskaźników charakteryzujących warunki zwarciowe jest moc zwarciowa (oznaczana jako S”k -wyznaczana w układzie trójfazowym jako iloczyn napięcia znamionowego sieci Un i prądu zwarciowego I”k.
S”k = √3 Un I”k.
Tu nie wdając się w skomplikowany charakter występowania prądu zwarcia I”k. – trzeba powiedzieć, że jest on wielokrotnie większy od prądu obciążenia roboczego zwykle nieprzekraczającego wartości prądów znamionowych. Pamiętać należy jednak, że prawdopodobieństwo wystąpienia niektórych bardzo wielkich wartości prądów zwarcia wyznaczonych w sposób deterministyczny jest w wielu przypadkach niewielkie, ale musi to zjawisko uwzględnić projektujący i użytkujący wybudowaną sieć.
Pomimo relatywnie małego prawdopodobieństwa, projektant sieci musi mieć świadomość, że jeśli nawet mało prawdopodobna wartość prądu zwarcia wystąpi w rzeczywistości i będzie się wiązała z uszkodzeniem obiektu, a być może nawet poważnym wypadkiem z ofiarami ludzi, to on poniesie odpowiedzialność karną za skutki takiego źle zaprojektowanego układu.
Dlatego też właściciele sieci muszą zgodzić się na poniesienie kosztów związanych z warunkami zwarciowymi w sieci powodowanymi przyłączeniem nowych źródeł zwiększających moc zwarciową. Koszty te przenoszone są do taryfy zatwierdzanej przez nadzór regulacyjny, czyli prezesa URE i płacone przez odbiorców energii.
Wzrost kosztów inwestycyjnych jest bardzo istotny w przypadku cieplnej wytrzymałości zwarciowej przewodów linii elektroenergetycznych zasilanych z przykładowej typowej stacji transformatorowo rozdzielczej. Np. dla typowej rozdzielni, z której zasilanych jest 20 linii, z których 10 jest wykonanych przewodami AFL6 o przekroju 70 mm2 , w związku ze wzrostem mocy zwarciowej wynikającej z przyłączenia FW, potrzebna jest wymiana transformatora o mocy 16 MVA na transformator o mocy 25 MVA, co implikuje konieczność wymiany wspomnianych wcześniej przewodów na kable o przekroju 120 mm2, a co tylko poza wymianą drogiego transformatora na nowy transformator z przełącznikiem zaczepów dla regulacji napięcia w zakresie -/+ 10% Un, jest znaczącym kosztem przekraczającym często koszt nowego i drogiego transformatora. Nowe linie dostosowane do większego prądu zwarcia, to zwykle minimum podwojenie kosztów inwestycyjnych.
Koniecznym jest też odnotowanie, że zamieniamy prosty transformator ze stałą przekładnią na transformator pracujący z przełącznikiem zaczepów, dostosowujący poziom napięcia do bardzo zmiennych warunków wytwarzania energii elektrycznej przez źródła zależne od pogody, czyli FW i PV, wprowadza możliwość powstania kolejnych wysokich kosztów, z racji tego, że statystycznie za 20% awarii w stacjach transformatorowych odpowiadają uszkodzenia przełączników zaczepów.
Wymiana wyłącznika zdolnego do wyłączenia zwiększonego prądu zwarcia, to wzrost nakładów o ok. 12-15%, wymiana aparatury pomiarowej i zabezpieczeniowej to kolejne 20% nakładów poniesionych w przebudowę stacji.
Natomiast w przypadku takich awarii wspomnianego przełącznika zaczepów transformatora poza brakiem ciągłości zasilania, należy oszacować koszt energii niedostarczonej. A na przykładzie awarii sieci przesyłowej w rejonie Szczecina, koszt jednej MWh, był szacowany na podstawie szkód wyrządzonych odbiorcom w zakresie od 15 000 zł/MWh do 28 000 zł/MWh. Stąd drożyzna w przesyle i dystrybucji. Bo trzeba budować przewymiarowane stacje i linie.
Reasumując w dystrybucji i w przesyle wzrost mocy zwarciowych, poprzez przyłączenie do wspólnej sieci nowych źródeł FW w wytwarzaniu energii elektrycznej, a te źródła zależne od pogody powodują wielokrotny wzrost nakładów inwestycyjnych, które są przenoszone do taryfy płaconej przez odbiorców energii – są bezspornie akceleratorem wzrostu cen energii. Mając w pamięci, że ich roczne wskaźniki czasowe CF wytwarzania zawierają się w granicach od 0,1 dla PV do 0,22 dla lądowych LFW i ok. 0,32 dla Morskich FW, to okres zwrotu z tych inwestycji w sieciach znacznie przekracza okresy akceptowalnych czasów kredytowania inwestycji przez jakiekolwiek banki. Te wysokie koszty dlatego ponosi końcowy odbiorca, niemający wystarczającej ochrony przed naturalnym monopolem sieciowym, natomiast właściciele sieci mają nałożony obowiązek przyłączania źródeł rzekomo bezemisyjnych w oparciu o unijną zasadę liberalizacji rynku energetycznego tj. zasadę TPA (Third Party Access). W ten sposób w dystrybucji i przesyle kółko wzrostu cen się zamyka.
Opisany mechanizm wzrostu kosztów inwestycyjnych wywoływanych przez FW rzekomo wytwarzających energię po najniższych kosztach, bo przecież wiatr nic nie kosztuje, jest złudny. Kosztuje kilkakrotnie więcej w inwestycjach, ale ponoszony przez właścicieli sieci, a w konsekwencji końcowego odbiorcę energii – nie ponosi ich właściciel FW!!! Do tego jeszcze trzeba przypomnieć, że te „rekordy wytwarzania FW” trwają zaledwie 200 h/r. – Zatem musi być drogo.
Problem ogromnych kosztów stałych generowanych w systemie elektroenergetycznym przez FW
Trzeba odnotować, że w strukturze kosztów wytwarzanej energii w źródłach konwencjonalnych (bez opłat środowiskowych w rynku ETS) udział kosztów zmiennych to ok. 65-70% głównie związanych ze zużyciem paliw pierwotnych, a pozostałe 30–35% kosztów to koszty stałe występujące niezależnie od wolumenu wytwarzanej energii.
Dla prawidłowej oceny „dobroci” takiego źródła również należy dla porównywalności, koszty te przeliczyć na jednostkę wytwarzanej energii, czyli na 1 MWh.
Zasadą jest, że jednostkowy koszt stały energii jest tym mniejszy, im źródło konwencjonalne (Elektrownia zużywająca węgiel) pracuje w roku maksymalne długo np. z CF na poziomie 0,8.
Ponieważ Farmy Wiatrowe jako źródła wytwarzające energię zajmują pozycję rynkową w systemie elektroenergetycznym (KSE) jako „Must Run” – czyli muszą pracować i ich energia musi być odebrana bez zachowania zasad konkurencyjności, a KSE nie jest fizycznym magazynem energii, ponieważ co do zasady energia elektryczna wytworzona w tej samej chwili powinna być odebrana przez odbiorcę, to bilans nakazuje przymus odbioru ze źródła uprzywilejowanego, kosztem źródła sterowalnego. Ta zasada powoduje, że źródła konwencjonalne w przypadku wysokiej generacji energii z FW zmuszane są do redukcji wytwarzania, a zatem pracy w punktach niskich obciążeń i niskiej sprawności lub są całkowicie wyłączane do rezerwy. Postój w rezerwie łączy się z wychłodzeniem, a następnie przy wzroście zapotrzebowania i braku generacji z FW np. w szczycie przedwieczornym kiedy nie ma już słońca i PV nie pracują, a typowy przedwieczorny brak wiatru przez żeglarzy nazywany „flautą”, zmusza dyspozytorów do ponownego uruchamiania bloków z rezerwy postojowej.
Oznacza to nic innego jak ponowne rozpalanie kotłów z użyciem drogiego oleju opałowego, które trwa w zależności od stanu cieplnego bloku od kilku nawet do 10 h/dz w zależności od wielkości bloku i typu kotła parowego oraz wielkości turbiny. Rozpalanie i wznowienie generacji z konwencjonalnego bloku termicznego to zwykle zużycie kilku cystern oleju opałowego z dodatkową emisją CO2. Zatem ponowne uruchomienie kotła w bloku obecnie uznawanym za średniej wielkości, czyli o mocy 460 MWe, to obecnie koszt od 200 tys. złotych przy rozpalaniu ze stanu gorącego, nawet do 700 tys. zł przy rozpalaniu ze stanu zimnego.
Dodatkowo gdy dyspozytor KSE nie chcąc bloku konwencjonalnego odstawiać do rezerwy, obciąża go w pobliżu minimum technicznego, to blok pracuje przy najniższych sprawnościach przemiany energetycznej, czyli zużywa nieproporcjonalnie więcej węgla niż przy obciążeniu bliskim 100% mocy znamionowej, a są to koszty w ciągu jednego dnia pracy na niskim parametrze, rzędu nawet kilku mln zł/dzień przy obecnych cenach energii elektrycznej w hurcie.
Ponieważ wspomniane jednostkowe koszty stałe są odwrotnie proporcjonalne (zależność hiperboliczna) do czasu wykorzystania, to w przypadku obniżenia się wskaźnika CF z poziomu 0,8, do poziomu 0,1 (praca szczytowa i postoje w rezerwie), to koszt 1 MWh wzrasta ośmiokrotnie!!! Czyli jak bloki podstawowe stoją w rezerwie, to ich koszty stałe są wielokrotnie wyższe, zatem w tej samej proporcji rosną ceny na rynku hurtowym – zatem musi być drogo.
Odnotować też trzeba, że wielokrotne odstawianie do rezerwy dużych bloków energetycznych i ich ponowne uruchomienia, to udokumentowany powód do wzrostu awaryjności obecnie dotkliwie odczuwalny w statystykach awaryjności elektrowni w Polsce. Wielkie bloki energetyczne pracować powinny w podstawie obciążeń i uczestniczyć tylko w regulacji mocy i częstotliwości w systemie ARCM (automatyczna regulacja częstotliwości i mocy) w ramach projektowanych charakterystyk obciążeń, a nie być dostosowywane do pracy źródeł zależnych od warunków pogodowych.
Wystarczy odnotować, że każda awaria wielkiego bloku energetycznego i jego brak dyspozycyjności to w każdej godzinie brak przychodu z generacji energii rzędu 400 zł/MWh, postój awaryjny tylko jeden dzień bloku o mocy 460 MWe, to strata przychodów rzędu 4 500 000 zł/dz.
Wiadomo, że dla KSE jedną z najważniejszych cech jest konieczność szybkiej regulacyjności zmiennych obciążeń i bardzo szybko zmiennych generacji z FW. Ponieważ są one przyłączane do sieci poprzez inwertery, czyli przekształtniki prądu stałego na zmienny, to nie mają one żadnej inercyjności, taką, jaką bloki w elektrowniach konwencjonalnych. Zatem regulacja szybka z FW nie jest możliwa. Uczestnictwo w regulacji minutowej, wolniejszej też jest ograniczone, ponieważ dyspozytor, odnotowując wzrost zapotrzebowania, nie nakaże wiatrowi wiać mocniej lub słońcu świecić intensywniej, takie sygnały muszą przejmować jednostki sterowalne, czyli elektrownie konwencjonalne lub wodne. Koszty regulacji zmian wytwarzania powodowanych przez FW i PV stosownie do zmian zapotrzebowania przenoszone są na inne bloki energetyczne, a nie ponoszą ich ani FW, ani PV.
Praca w regulacji mocy i częstotliwości w elektrowniach konwencjonalnych to każdego dnia dla każdego bloku dodatkowy koszt szacowany w milionach złotych.
W odniesieniu do zagadnień regulacji mocy czynnej i częstotliwości w KSE, w oparciu o charakterystyki statyczne wymagane od źródeł wytwarzania, jakie podaje Instrukcja Ruchu i Eksploatacji Sieci Przesyłowej opublikowana przez PSE SA, również pokazuje diametralnie odmienną charakterystykę dla źródeł konwencjonalnych i Farm Wiatrowych.
Źródło IRiESP–tekst ujednolicony obowiązujący od 7.04.2020 r
Źródła konwencjonalne mogą uczestniczyć w pokrywaniu zmian zapotrzebowania przyrostowo jak i redukcyjnie, bo są w pełni sterowalne na polecenie dyspozytora i nastawień sygnałów regulatora centralnego, podczas gdy FW mają charakterystykę tylko redukcyjną, aż do ich całkowitego wyłączenia. Tak się dzieje, bo dyspozytor przy wzroście zapotrzebowania nie może nakazać wiatrowi wiać mocniej, nawet wiedząc że moc czynna wiatraka jest funkcją prędkości wiatru „v” do potęgi trzeciej PFW=f(v3), ale wie, że taka zależność zachodzi również gdy wiatr gwałtownie malej, stąd tak szalone skoki wytwarzania, które musi regulować energetyka w pełni dyspozycyjna, czyli źródła konwencjonalne. Elektrownie konwencjonalne pracujące w szaleńczej regulacji zmian wytwarzania w FW, wykazują w związku z tym zjawiskiem również wzmożonej awaryjności i większym zużyciem paliwa pierwotnego, niż gdyby pracowały w sposób ustalonego obciążenia. Tych kosztów nie pokrywają źródła wiatrowe, będące bezspornie powodem takich fluktuacji mocy wytwarzanej w KSE. Jeśli koszty zmienne w elektrowni konwencjonalnej to ok. 70% kosztów, a praca w szybkiej regulacji powoduje ich wzrost o ok. 20%, zaś w FW koszty zmienne są zerowe, bo przecież wiatr nic nie kosztuje, a konsekwencji to rachunek dla odbiorców końcowych energii, musi wykazać wzrost ceny rzekomo drogich elektrowni konwencjonalnych. Hipokryzja lobby wiatrowego to mało powiedziane!!!
Syndrom zasady 10H
Wbrew łatwej narracji lobby wiatrowego, jakoby zasada zachowania odległości od siedzib ludzkich była rządową barierą dla rozwoju farm wiatrowych na lądzie. Tej bariery dla morskich farm wiatrowych nie ma, to dlaczego ich się szybko bez bariery 10H nie buduje? A w tym przypadku działa dźwignia ekonomiczna, trzeba zbudować całą infrastrukturę, porty, nabrzeża, place odkładcze dla składowania elementów elektrowni wiatrowej, wyspy technologiczne i musi za to zapłacić inwestor budujący farmę. A na lądzie mogą skorzystać z istniejących już dróg, zbudowanych wcześniej linii dystrybucyjnych, stacji transformatorowych w terenach zurbanizowanych. A jak od nich trzeba odsunąć na uzasadnioną odległość lądową farmę wiatrową, to trzeba wybudować choćby własną linię i własną stację transformatorową. A budowa linii przez teren należący do kilkudziesięciu i często jak praktyka pokazuje nawet i kilkuset właścicieli działek, z którymi trzeba wynegocjować umowy o służebności to jest droga przez mękę legislacyjną, bo przy nastawieniu rolnika „nie bo nie” – uzyskanie pozwolenia na budowę linii to zwykle trwa 24–30 miesięcy, przy okresie budowy LFW trwającej zwykle ok. 18 miesięcy.
Wróćmy do rzekomo niezasadnej odległości 10H od zabudowań. Trzeba wiedzieć, że przykładowo wieża wiatrowa np. o wysokości 100 m z rotorem z łopatami o długości 50 m, obracając się całkiem wolno np. 10 obrotów na minutę, to końcówka łopaty ma prędkość liniową ok. 300 km/h. Żaden ptak ani nietoperz nie ma szans na przetrwanie w zderzeniu z łopatą przy tej prędkości. Ile ptaków drobnych i wielkich ginie, łatwo zobaczyć pod taką wieżą, a jest ich całkiem sporo, zanim rozwloką je inne żerujące zwierzęta w tym głównie gryzonie.
Ze wspomnianego raportu G. Hughesa wykazującego, że najczęstszym powodem wzrostu kosztów operacyjnych i obsługowych (O&M – Operation and Maintenance) są awarie rotorów pracujących w trudnych warunkach środowiskowych i stąd ich zużycie niemal dwukrotnie szybsze niż zakładały to studia wykonalności, wykazujące nierealne jak widać koszty napraw. Deweloper buduje zwykle FW w modelu B–O–T (Build–Operate–Transfer, czyli zbuduj–użytkuj–sprzedaj), zatem na koniec okresu zwrotu, gdy koszty operacyjne gwałtownie rosną, wtedy dochodzi do fazy „trasfer”, czyli sprzedaj problem następcy. Nie przypadkowo wśród inwestorów termin „transfer” jest zastępowany terminem „Throuaway” – czyli wyrzuć. Stąd uzasadnione ostrzeżenia Gordona Hughes’a dla akcjonariuszy spółek SPV, że finansują złom. Jak wyglądają zużyte łopaty w farmach wiatrowych, pokazują poniższe ilustracje:
Szacuje się, że w Stanach Zjednoczonych przez kolejne cztery lata wymienione zostaną 32 tys. starzejących się śmigieł, czyli ok. 8 tys. co roku. W Europie co roku wymienia się ok. 4000 łopat. Ta liczba ma jeszcze wzrosnąć, bo większość wiatraków zbudowana została ponad dekadę temu. Zużyta łopata, to jedne z najtrudniejszych do utylizacji odpadów.
Patrząc na zdewastowaną krawędź natarcia łopaty śmigła, trzeba wiedzieć, że to wynik lodowej erozji. W zimie łopaty obmarzają, a siła odśrodkowa jest tak wielka, iż odrywające się bryły lodu potrafią, odrywając się, uszkodzić łopatę, ale mogą być wyrzucane na odległość przekraczającą 10H, zaś odłamane płaty śmigła mogą szybować jeszcze dalej. Zatem dystans bezpieczeństwa nie jest podyktowany tylko zawsze występującym hałasem wzniecanym przez szybko wirujące śmigła przekraczającym poziom 50 dB w dzień i w nocy, co jest bezspornie uznawane za uciążliwość przekraczającą akceptowalną miarę.
Innym powodem dystansu 10H jest zjawisko wibracji powodowanej tzw. migotaniem rotora, czyli stanem przysłaniania łopaty od strumienia wiatru przez samą wieżę podtrzymującą gondolę, które to zjawisko wprowadza wirnik w drgania. Wibracje te są przenoszone z wielką siłą wynikającą z momentu gnącego jako iloczynu siły i długiego ramienia – oddziałującego w ten sposób na fundament. Ten zaś jeśli jest posadowiony w gruncie np. gliniastym z wysokim poziomem wód gruntowych, pracuje jak tłok hydrauliczny na wody podskórne, a te z kolei potrafią w krótkim czasie doprowadzić do naruszania fundamentów domostw w promieniu zalegania wód gruntowych nawet na odległość ponad 1 km, bo woda jest medium nieściśliwym. Spękania ścian domów w pobliżu LFW było odnotowane w rejonie Dolnego Śląska. Oczywiście skargi na destrukcyjne oddziaływanie tej farmy wiatrowej, deweloper odrzucił jako niezasadne, bo miał obowiązujące pozwolenia na budowę i użytkowanie, wydane bez badania zjawiska wibracji. Rolnikom pozostaje żmudna droga dochodzenie odszkodowań na drodze wieloletnich postępowań w sądach administracyjnych, a tu zapadające wyroki są nieprzewidywalne, jak wykazuje praktyka zawsze zależne od zasobności stron postępowania. Legalne unieważnienie pozwolenia na użytkowanie jest niemożliwe z mocy prawa, bo art. 59 Prawa Budowlanego wskazuje, że stroną w postępowaniu o pozwoleniu na użytkowanie jest tylko inwestor i urząd nadzoru budowlanego, więc poszkodowany nie ma prawa strony i jego skarga będzie zawsze odrzucona z mocy ułomnego prawa.
Kolejne koszty nieponoszone przez właścicieli FW, to obowiązek zapewnienia bezpieczeństwa pożarowego spadający na Państwową lub Ochotniczą Straż Pożarną, która dla ugaszenia pożaru gondoli z płonącym generatorem na wieży o wysokości np. 100 m, musi dysponować wyjątkowo wysokim dźwigiem z gondolą dla strażaka. Natomiast koszt zakupu i utrzymania takiego wozu strażackiego zwykle przekracza zdolność budżetową gminy wiejskiej.
Konkluzja
Nie wystarczy wytwarzać energię elektryczną z wiatru bez emisji CO2, ale jest konieczność ujawniania wielkich kosztów generowanych w pozostałych częściach systemu elektroenergetycznego i innego otoczenia gospodarczego spowodowanych działaniem elektrowni wiatrowych, a nie wykazywanych w kosztach i cenach energii wytwarzanej w FW, a jak widać z powyższych opisów, są one powodem ogromnego wzrostu cen i kosztów u stron trzecich, które nie mogą być bezkrytycznie akceptowane przez końcowego odbiorcę energii elektrycznej. Dlatego może warto wrócić do treści Motto w tym artykule.
Dr inż. Jerzy Majcher obecnie jest niezależnym konsultantem z dziedziny zarządzania w firmach z sektora energetyki, w przeszłości w ostatnich 15 latach pracował m.in. na kierowniczych stanowiskach rzecz korporacji brytyjskich: WS Atkins Polska oraz Mott MacDonald Polska Sp. z o.o. i Mott macDonald Ltd. Pracuje w branży energetycznej przeszło 45 lat. Był nauczycielem akademickim w na Wydz. Elektrycznym Politechniki Warszawskiej, był wykładowcą praktykiem w WSZiB w Poznaniu, WS Vistula w Warszawie, Akademii Skolimowskiej w Warszawie-Skolimowie. Pracował w Min. Gospodarki Materiałowej i Paliwowej gdzie odpowiadał za programy rozwoju energetyki. Następnie w Wspólnocie Energetyki i Węgla Brunatnego w pionie Badawczo–Rozwojowym wdrażał wyniki prac naukowych w energetyce. Po rozwiązaniu WEiWB rozpoczął pracę w PSE SA na stanowisku Kierownika Wydziału Współpracy z Zagranicą. Następnie jako kierownik wydziału Energetyki Krajowej i doradca dyrektora Biura Energetyki w Elektrim SA był twórcą pierwszych Kontraktów Długoterminowych będących dźwignią inwestycyjną w modernizowanych elektrowniach. Po przejściu do ABB odpowiadał za realizację dużych projektów w sektorze wytwarzania (o wartości >100 mln USD). Zarządzał lub nadzorował realizację projektów o wartości przekraczającej 30 mld PLN m.in. w elektrowniach: Turów, Łagisza, Opole, Kozienice. Jest autorem lub współautorem wielu prac eksperckich i raportów sporządzanych na rzecz banków i stron finansujących transakcje kupna aktywów w branży energetycznej i ciepłowniczej.