Witam. Młodzież wróciła wczoraj ze szkoły i przyniosła nietypowy problem do rozwiązania. Otóz nauczyciel zadał klasie do rozwiązania przez weekend zagadkę dlaczego napięcie sieciowe w wynosi 220 (230)V, i czestotliwość 50 Hz, a nie np: 180V 70 Hz, czym uwarunkowane są (były) te wartości ?.
Witam,
wartość (skuteczna) napięcia 220V to zaszłość historyczna i związana z pierwszym praktycznym wykorzystaniem energii elektrycznej wytwarzanej wtedy w prądnicach pradu stałego.
Było to oświetlenie (uliczne, chyba w Paryżu) za pomocą lamp łukowych (żarówka nie była jeszcze wtedy wynaleziona) w których wartość napięcia łuku elektrycznego wynosi ok. 55V, ale jedna lampa łukowa paliła się niestabilnie ze względu na swą nieliniową charakterystykę prądowo - napięciową i ujemną (w pewnym przedziale) rezystancję dynamiczną.
Dlatego też nominalna wartość napięcia w pierwszych sieciach elektrycznych wynosiła 110V, a lampy łukowe łączono po dwie szeregowo.
Niedługo potem Dolivo-Dobrowolski wynalazł swój układ, czyli połączenie szeregowe dwóch prądnic prądu stałego po 110V każda.
I tak już było napięcie 220V na skrajnych przewodach trójprzewodowej sieci i służące do zasilania silników elektrycznych (większa wartość mocy) i po 110V (względem środkowego) służące do oświetlenia.
Zaczęła się produkcja odbiorników energii elektrycznej, np. grzejniki, a potem żarówki (najpierw z włóknem węglowym) na nominalną wartość napięcia 110V.
Kiedy Tesla zaczął w USA preferować napięcie przemienne, a to ze względu na możliwość transformacji i przesyłu energii elektrycznej na znacznie odległości, z pierwszych elektrowni wodnych zbudowanych na licznych (bocznych) wodospadach Niagary, to nie było już alternatywy; trzeba było przyjąć taką wartość nominalną napięcia na jaką już były odbiorniki prądu stałego, czyli 110V.
Wartość 220V była zwykłym następstwem minimalizacji strat energii w liniach przesyłowych n.n.
Choć w Ameryce nadal jest stosowane napięcie 110V, gdzie preferowany jest inny niż w Europie sposób rozsyłu energii elektycznej do odbiorcy.
Mianowicie tam każdy dom jednorodzinny, mieszkanie, ma swój inwidualny transformator obniżający z 6kV (przeważnie) na 110V, a więc na stosunkowo niewielkich odległościach te straty w rezystancjach przewodów nie są duże.
W Europie przyjęty jest powszechnie model sieci z jednym transformatorem trójfazowym obniżającym napięcie ze średniego na niskie dla lokalnej sieci i stąd dwukrotnie większa wartość tego napięcia minimalizuje straty.
Choć Amerykanie (ze swymi inwidualnymi transformatorami) mają te straty - na drodze rozdzielnia średniego napięcia, odbiorca końcowy - przy takiej samej wartości mocy pobieranej, niższe.
Nie bez znaczenia jest tu również filtrujące działanie transformatora, a więc energia w linii średniego napięcia jest lepszej jakości (mniej zawartości wyższych harmonicznych w przebiegu prądu).
Dlatego też, co widać, wartość nominalną napięcia w sieciach n.n. napięcia podnoszona jest metodą małych kroków, by urządzenia wyprodukowane wcześniej na niższą wartość nominalną mogły jeszcze jakiś czas pracować przy podwyższonej wartości nominalnej (najpierw 230V, a dalej 240V) i z czasem "umrzeć w sposób naturalny".
Natomiast urządzenia nowowyprodukowane są z reguły przystosowane do pracy z niższą wartością nominalną (pomijając żarówki, które wtedy kiepsko świecą) napięcia.
Teraz dwa słowa o wartości częstotliwości (choć już we wcześniejszym poście jest linka do strony gdzie to wyjaśniono dostatecznie) napięcia przemiennego.
W Europie inżynierowie (przede wszystkim niemieccy) doszli do wniosku, iż wystarczającą wartością będzie 50Hz (przede wszystkim ze względu na rosnące wraz z kwadratem częstotliwości straty na prądy wirowe w blachach transformatorowych i prądnicowych).
W USA przyjęto 60Hz, co dla silnika (prądnicy) synchronicznego z jedną parą biegunów daje prędkość synchroniczną 3600obr./min. (w Europie 3000obr./min.), czyli 60obr./sek., ale (jak czytałem kiedyś dzienniki Tomasz Alvy Edisona) nie tylko to było powodem przyjęcia takiej wartości, o której Edison (który był samoukiem) tylko wspominał nie uzasadniając tego dokładnie.
Na świecie (przed unifikacją) istniały systemy pracujące na częstotliwościach od 16 i 2/3Hz do 133 1/3Hz. Rozrzut wynikał z przyjętych rozwiązań technicznych napędu (turbiny parowe, turbiny wodne) i konstrukcji samego generatora.
Wyboru 60 Hz w USA dokonał George Westinghouse a 50Hz w Europie niemiecka firma AEG.
60Hz wynikało z optymalizacji oświetlenia łukowego, stwierdzono, że pracuje ono stabilniej przy zasilaniu 60 Hz (mniejsze migotanie). Gdzieś tez czytałem, że Nicoli Tesli wyszło z obliczeń, że optymalniejszą częstotliwością dla urządzeń prądu przemiennego jest 60 Hz.
Edison był zwolennikiem prądu stałego, nawet do tego stopnia, że w swoim "własnoręcznie" wynalezionym krześle elektrycznym zastosował prąd przemienny by jasno wykazać, że propagowany przez Westinghouse'a prąd przemienny jest bardzo niebezpieczny.
Częstotliwości poniżej 50Hz powodują nieprzyjemne męczące migotanie oświetlenia, szczególnie przy oświetleniu źródłami oświetleniowymi o niskiej bezwładności (lampy fluorescencyjne, urządzenia łukowe).
We wczesnych latach oświetlenia żarowego typowe generatory pracowały przy obrotach 2000 obr/min mając 4 pary biegunów co dawało częstotliwość 133 i 1/3 Hz.
Firma Westinghouse Electric zdecydowała się ustandaryzować częstoliwość sieciową na niższej wartości, by zasilać urządzenia oświetleniowe i silniki indukcyjne z tej samej sieci.
Jak już pisałem wybrano 60Hz, bo oświetlenie łukowe dawało lepsze, mniej migotliwe światło przy tej częstotliwości.
Częstotliwości dużo poniżej 50Hz powodowały widoczne migotanie oświetlenia (także żarowego).
AEG ustaliło jako częstotliwość roboczą sieci 50Hz też w wyniku obserwacji migotania światła tyle, że przy częstotliwościach niższych (40Hz na tej częstotliwości pracowała 175 km linia przesyłowa z Lauffen do Frankfurtu w 1891 roku i w tym też roku ustalono wyższą wartość częstotliwości).
W 1893 roku General Electric stowarzyszone z AEG w Niemczech, wybudowało w Mill Creek w Kaliforni, elektrownię pracującą na 50Hz (dla umożliwienia pracy na tej samej linii oświetlenia i wynalezionych w 1888 roku, przez Teslę, silników indukcyjnych) później podwyższyło częstotliwość na 60Hz ze względów rynkowych (zgodność ze standardem Westinghouse'a).
Pierwsze generatory (konstrukcji Westinghouse'a) w elektrowni wodnej na wodospadzie Niagara pracowały na częstotliwości 25Hz ale było to w 1895 roku przed standaryzacją (a częstotliwość wynikła z wyboru użytej prądnicy przed wyborem systemu transmisji).
Najstarsza (zbudowana w 1897 roku) obecnie pracująca elektrownia wodna w Mechanicsville w stanie Nowy Jork, pracuje na częstotliwości 40Hz i łączy się z siecią energetyczną przez konwertery częstotliwości (40 na 60 Hz). Miała być w 1996 roku zamknięta ale chyba ją odrestaurowano i działa dalej choć nie wiem czy z pełną mocą czy raczej jako zabytek.
Napięcie 110V przyjęto z powodu stosowanych ówcześnie żarówek z włóknem węglowym, przy tym napięciu paliły się najdłużej, potem jak wprowadzono włókno wolframowe to i można było dać wyższe napięcie, obniżające jednocześnie materiałochłonność linii doprowadzających (mniejsze prądy dla przesyłu tej samej mocy).
A tak jeszcze z mojej strony: czy na częstotliwość prądu nie miała przypadkiem wpływu kinematografia ? Chodzi mi o ilość klatek , bo coś tak słabo pamiętam z czasów szkolnych, że obraz z projektora był wyświetlany z częstotliwością 24 klatek/ sekundę, z tym że każda klatka była dzielona (charakterystyczne śmigło przecinające wiązkę światła w projektorze) ?
W kinematografii było 24 klatki na sekundę a w TV jest 50 Hz (w Europie).
W epoce filmu niemego stosowano filmowanie 16 klatek na sekundę.
Akurat 50Hz i prędkość filmowania nie były ze sobą związane.
Migawka w aparacie filmowym nie dzieli klatek. Taśma filmowa porusza się w kamerze filmowej skokowo a migawka przesłania światło padające przez układ optyczny obiektywu na taśmę w momencie jej ruchu. Dopiero jak taśma się zatrzymuje dokładnie klatką filmową przed obiektywem to migawka odsłania obiektyw i następuje naświetlenie kolejnego kadru "stanem rzeczywistości przedobiektywowej"
50 Hz w starych TV to odświeżanie ekranu nie mające nic wspólnego z ilością klatek na sekundę w kinematografii. jeżeli spojrzysz kątem oka na taki stary telewizor kineskopowy zarejestrujesz lekkie migotanie - o ile 50 Hz w telewizorze mogło wystarczyć to już nie do do wygodnej pracy przy monitorze CRT (ekran kineskopowy) w który wpatrujesz się z odległości około pół metra - dlatego przyjęło się że odświeżanie powinno wynosić co najmniej 72 Hz (przy tej częstotliwości odświeżania ekranu CRT ludzkie oko praktycznie nie potrafi zarejestrować migotania). dziś ekrany kineskopowe zostały zastąpione ekranami LCD gdzie obraz jest generowany w zupełnie inny sposób - nie zanika jak w urządzeniach kineskopowych zaraz po wygenerowaniu lecz trwa aż do wygenerowania następnego - nie ma zatem mowy o migotaniu ale częstotliwość odświeżania ekranu dalej jest ważna z innych względów. otóż o ile w filmie nie wiele się zmieniło (dalej obowiązuje standard 24 klatki a technologia 48 klatek raczkuje i nie przez wszystkich jest przyjmowana z zachwytem, a szkoda bo "Hobbit" w 48 klatkach + w 3D jest zacny) to w grach im więcej klatek tym lepiej. do tego technologia 3D wymusza podwojenie ilości generowanych obrazów (na przemian po jednej klatce dla każdego oka w technologii aktywnej). teraz to częstotliwość musi wzrosnąć żeby nadążyć za liczbą klatek. załóżmy że chcemy mieć 60 fps (klatek na sekundę) w grze + 3D i wychodzi że nasz monitor / telewizor z odpowiednim zapasem powinien mieć odświeżanie co najmniej 200 Hz.
reasumując: 50 Hz w gniazdku nie ma nic wspólnego z 50 Hz na ekranie starego telewizora.
reasumując: 50 Hz w gniazdku nie ma nic wspólnego z 50 Hz na ekranie starego telewizora.
Nie do końca - kiedyś wybrano 50Hz (a w USA 60Hz) jako częstotliwość ramki TV ze względu na to iż zakładano iż sieć będzie elementem synchronizacji ramki między kamerą a odbiornikami. Póżniej odstąpiono od tego pomysłu ale częstotliwości już nie zmieniono.
reasumując: 50 Hz w gniazdku nie ma nic wspólnego z 50 Hz na ekranie starego telewizora.
Nie do końca - kiedyś wybrano 50Hz (a w USA 60Hz) jako częstotliwość ramki TV ze względu na to iż zakładano iż sieć będzie elementem synchronizacji ramki między kamerą a odbiornikami. Póżniej odstąpiono od tego pomysłu ale częstotliwości już nie zmieniono.
Legenda miejska i nic więcej. Problemem w telewizji była synchronizacja linii a nie ramki, więc poleganie na sieci w tym względzie nic nie da, nie mówiąc o tym, że każdy potencjalny odbiorca może być zasilany z sieci o innym przesunięciu fazowym, więc początek ramki wypadałby niektórym w środku ekranu
Natomiast przyczyna, dla której telewizja używa tej samej częstotliwości co sieć w zasadzie w tym wątku już padła: lampy łukowe używane w studiu. Mrugają na 100/120 Hz i gdyby częstotliwość ramki była inna niż 50/60 Hz, widzowie obserwowaliby chodzące po ekranie falowanie jasności, które byłoby uciążliwe.