Cześć wszystkim.
Robię projekt na studia, który opiera się na analizie tranzystora MOSFET. Jednakże napotkałem na problem, który dotyczy przełączania. Otóż, podczas załączania, prąd drenu zaczyna rosnąć dopiero wtedy, gdy napięcie dren-źródło spadnie do zera. Wychodzi wtedy na to, że nie ma w ogóle strat, co wydaje mi się trochę dziwne. Druga sprawa, że nie wiem jak w takim przypadku określić czas tego załączania. W celu zobrazowania, zamiast wyglądać to tak:
To wygląda tak:
Niżej jest zrobiony wykres w excelu ze zrzuconych danych z oscyloskopu.
Wrzucam screen z oscyloskopu:
Dodam, że jest to low-side switch, obciążenie rezystancyjne, z tym że przy tych 5kHz, które są widoczne na oscylogramie, indukcyjność odbiornika wyniosła 100mH. Wraz ze wzrostem częstotliwości malała.
Czy powinno to tak wyglądać? Nie wiem teraz w jaki sposób mam wyznaczyć czas załączania i określić straty mocy, bo ich brak wydaje mi się odrobinę dziwny.
Robię projekt na studia, który opiera się na analizie tranzystora MOSFET. Jednakże napotkałem na problem, który dotyczy przełączania. Otóż, podczas załączania, prąd drenu zaczyna rosnąć dopiero wtedy, gdy napięcie dren-źródło spadnie do zera. Wychodzi wtedy na to, że nie ma w ogóle strat, co wydaje mi się trochę dziwne. Druga sprawa, że nie wiem jak w takim przypadku określić czas tego załączania. W celu zobrazowania, zamiast wyglądać to tak:

To wygląda tak:

Niżej jest zrobiony wykres w excelu ze zrzuconych danych z oscyloskopu.
Wrzucam screen z oscyloskopu:

Dodam, że jest to low-side switch, obciążenie rezystancyjne, z tym że przy tych 5kHz, które są widoczne na oscylogramie, indukcyjność odbiornika wyniosła 100mH. Wraz ze wzrostem częstotliwości malała.
Czy powinno to tak wyglądać? Nie wiem teraz w jaki sposób mam wyznaczyć czas załączania i określić straty mocy, bo ich brak wydaje mi się odrobinę dziwny.