Seminaria

Polskie Towarzystwo Fonetyczne (PTFon) organizuje cykliczne seminaria naukowe, których celem jest wymiana wiedzy, doświadczeń oraz bieżących wyników badań z zakresu fonetyki, fonologii, akustyki oraz nauk pokrewnych.

Seminaria mają otwarty i ogólnonaukowy charakter. Prowadzone są zarówno przez członków stowarzyszenia, członków Zarządu PTFon, jak i przez badaczy spoza Towarzystwa, którzy zgłaszają własne propozycje tematów. Zapraszamy osoby na różnych etapach kariery naukowej – od studentów i doktorantów, po doświadczonych badaczy.

Spotkania odbywają się w formie online, co umożliwia udział osobom z różnych ośrodków akademickich w Polsce i za granicą. Wszystkie seminaria są nagrywane, a następnie udostępniane na kanale PTFon w serwisie YouTube, aby mogły być dalej wykorzystywane w celach naukowych, edukacyjnych i dydaktycznych.

Zapraszamy do zgłaszania tematów

Zachęcamy do zgłaszania propozycji wystąpień seminaryjnych. Jeśli pracujesz nad interesującym zagadnieniem, prowadzisz badania, chcesz przedyskutować wstępne wyniki lub zaprezentować nową metodologię – seminaria PTFon są do tego idealną przestrzenią.

My zajmiemy się organizacją spotkania online, a Ty:

Jeśli chcesz zaproponować temat seminarium, skontaktuj się z nami — chętnie odpowiemy na pytania i pomożemy w organizacji wystąpienia.

Dr inż. Michał Kręcichwost “Wykorzystanie sztucznej inteligencji we wspomaganiu diagnostyki logopedycznej” [Prace badawcze]

📅 Data: 25 marca 2026 (środa), 
🕔 godz.
16.00
🎥 Nagranie: [Link]
Link do wydarzenia na FB: https://fb.me/e/6FvZ3jJxn

📃  Streszczenie: Seminarium na temat SpeechCAD. Projekt ma na celu opracowanie systemu komputerowego wspomagania diagnostyki logopedycznej umożliwiającego rejestrację, analizę i archiwizację wielomodalnych danych artykulacyjnych. W skład systemu wchodzić będzie urządzenie do rejestracji przestrzennego sygnału mowy i obrazu artykulatorów (skaner logopedyczny), aplikacja ekspercka analizująca pozyskane dane wielomodalne oraz platforma internetowa umożliwiająca wizualizację i archiwizację rezultatów analiz, a także wspierająca prowadzenie zdalnych i wspomaganych komputerowo konsultacji logopedycznych.
Stereowizyjny obraz twarzy mówcy zostanie wykorzystany do utworzenia modeli 4D mówców – dynamicznych, trójwymiarowych modeli twarzy umożliwiających swobodną obserwację artykulacji zarejestrowanej podczas sesji diagnostycznej. Techniki sztucznej inteligencji, zwłaszcza głębokiego uczenia, wykorzystując odpowiednio przetworzone dane wielomodalne, pozwolą na generowanie raportu o stanie artykulacyjnym mówcy. Pod nadzorem ekspertów system będzie stale douczany biorąc pod uwagę bieżące rozpoznanie. W ten sposób, wykorzystanie aplikacji w praktyce, poprzez sprzężenie zwrotne, będzie skutkowało poprawą jej działania. Uzyskane wyniki zostaną zaimportowane na platformę. Dostępny w serwisie model 4D mówcy umożliwi również prowadzenie dalszych konsultacji przez zespół wielospecjalistyczny. Przyczyni się to do przyspieszenia procesu diagnostycznego dziecka.
Proponowany system wspomoże pracę logopedów poprzez dostarczenie narzędzi do rejestracji danych artykulacyjnych, umożliwienie powrotu do archiwalnych nagrań w toku terapii, przyspieszenie procesu badań przesiewowych mowy dzieci w wieku przedszkolnym i wczesnoszkolnym w placówkach oświatowych. Mobilność urządzenia pomiarowego umożliwi także zdalną diagnostykę i konsultacje logopedyczne, co jest szczególnie istotne dla dzieci zamieszkujących tereny z niedoborem odpowiednich specjalistów. Więcej informacji: https://www.polsl.pl/rib1/forspeech-speechcad/

📝 Notka biograficzna: Dr inż. Michał Kręcichwost – adiunkt na Wydziale Inżynierii Biomedycznej Politechniki Śląskiej w Zabrzu. Kierownik Laboratorium Inżynierii Słuchu i Mowy (EHTIC). Specjalizuje się w komputerowym wspomaganiu diagnostyki i terapii logopedycznej, analizie mowy, przetwarzaniu sygnałów i uczeniu głębokim. Autor 43 publikacji, w tym 12 w czasopismach JCR o łącznym IF 46,9 (Indeks h: 7 i 142 cytowań na podstawie Web of Science, indeks h: 9 i 303 cytowań na podstawie Google Scholar), kierownik projektów NCBR i NCN.

Minione Seminaria

📅 Data: 16 grudnia 2025(wtorek), 
🕔 godz.
16.00
🎥 Nagranie: [Link]

📃 Streszczenie: Niniejsze badanie przedstawia analizę akustyczno-dynamiczną i percepcyjną „w czasie rzeczywistym” (por. real-time analysis) przejścia /ł/ ⇀ [w] w mowie spikerów Polskiej Kroniki Filmowej nagrywanej w latach 1944–1994. Na podstawie korpusu liczącego 150 000 słów zbadaliśmy trzy warianty fonetyczne — [ł], [Ł] (zredukowane [ł]) i [w] — w trzech okresach nagrań (1944–1959, 1960–1979 i 1980–1994). Za miarę “jasności” (por. acoustic darkness) akustycznej przyjęte zostały trajektorie F2-F1, modelowane za pomocą uogólnionych addytywnych modeli z efektami mieszanymi (GAMM) Do analizy zmiany w czasie rozkładu percepcyjnie sklasyfikowanych wariantów fonetycznych ([ł], [Ł] i [w]) zastosowano kumulatywne modele z efektami mieszanymi (CLMM). Wyniki analizy akustycznej i percepcyjnej zgodnie potwierdzają zmianę dźwiękową od wyjściowego systemu [ł, Ł, w] do zredukowanego systemu [(Ł), w], postępującą najszybciej w wygłosie posamogłoskowym, zaś wolniej w, odpowiednio, nagłosie międzysamogłoskowym i nagłosie pospółgłoskowym. We wszystkich pozycjach ciemniejsze warianty były preferowane w sąsiedztwie /ɔ, u/ oraz spółgłosek wargowych i miękko-podniebiennych. Co istotne, efekty te pozostały niezmienne w czasie, co wskazuje, że zmiana dźwiękowa nie była prowadzona czynnikami koartykulacyjnymi, wbrew przewidywaniom istniejących modeli teoretycznych wczesnych etapów zmian dźwiękowych. Motywację przejścia /ł/ ⇀ [w] wskazujemy w czynnikach społeczno-językowych i stylistycznych. Dyskutowana jest zbieżność schodkowych etapów zmian w dystrybucji wariantów /ł/ ze zmianami w linii narracyjnej Polskiej Kroniki Filmowej.

📝 Notka biograficzna: Szczegółowe informacje na stronie: https://lpp.cnrs.fr/equipe/doctorants/juliusz-cecelewski/

📂 Materiały uzupełniające

Jingyi Sun (Laboratoire de Phonétique et Phonologie), From Audio to Phone-Level Alignment Using WhisperX and MFA. – Tutorial dotyczący użycia narzędzi WhisperX i Montreal Forced Aligner:

Julisz Cęcelewski. Atelier Whisper. – Rozszerzenie w/w tutorialu o mniej konwencjonalne sposoby parametryzacji użycia narzędzia Whisper OpenAI (nie tak łatwo dostępne). Materiały w języku francuskim przygotowane przez ego do serii szkoleń we francuskiej Bibliotece Narodowej, dla potrzeb transkrypcji ortograficznej nagrań trudnych, dialektalnych, zaszumionych, nagrań dawnych z końca XIX wieku itd.

📅 Data: 3 grudnia 2025 (środa), 
🕔 godz.
17.00
🎥 Nagranie: [Link]

📃  Streszczenie: W ramach prezentacji przedstawiona zostanie tematyka, którą zajmuje się fonoskopia (akustyka kryminalistyczna). Pierwszym krokiem badań fonoskopijnych jest sprawdzenie czy nagranie mające być dowodem w sprawie jest autentyczne. Pokrótce zaprezentowane zostaną techniki analizy nagrań analogowych i cyfrowych pod kątem ich ciągłości, braku ingerencji, wycinania, wklejania itp.. Jednym z głównych zadań fonoskopii oprócz badania autentyczności nagrania jest identyfikacja osób biorących udział w nagranym zdarzeniu. Przedstawiony zostanie rys historyczny wykorzystania identyfikacji mówcy w zastosowaniach sądowniczych. Omówione będą klasyczne metody identyfikacji takie jak: słuchowa, spektralna (Kersta), audytywno-spektralna i językowo pomiarowa. W końcowym fragmencie prezentacji poruszone zostaną zagadnienia pozyskiwania informacji na podstawie analizy tła nagrania.

📝 Notka biograficzna: dr inż. Stefan Brachmański prowadzi zajęcia m.in. z Akustyki przestępstwa na II stopniu studiów na Wydziale Elektroniki, Fotoniki i Mikrosystemów Politechniki Wrocławskiej. Jest biegłym sądowym przy Sądzie Okręgowym we Wrocławiu w zakresie badań fonoskopijnych. W zakresie zainteresowań badawczych znajduje się tematyka związana z rozpoznawaniem mówców, oceną jakości sygnałów mowy, muzyki i video, a także kodowaniem sygnałów audio

📅 Data: 13 listopada 2025 (czwartek),
🕔 godz. 16.00
🎥 Nagranie: [Link]

📃  Streszczenie: Niniejsze studium przypadku przedstawia wstępną podłużną analizę akustyczno-dynamiczną realizacji /ł/ w dziesięciu publicznych przemówieniach papieża Jana Pawła II (ur. 1920), nagranych w latach 1979–2002. Z korpusu o łącznym czasie 488 minut wyodrębniono 2800 wyrazów zawierających /ł/ lub /l/ w pozycjach CV (w nagłosie pospółgłoskowym), VCV (w nagłosie międzysamogłoskowym) oraz VC (w wygłosie posamogłoskowym). Czworo anotatorów sklasyfikowało około 500 obserwacji /ł/ jako [ł] lub [w]. Do analizy akustycznej „jasności” (por. acoustic darkness) użyto modeli uogólnionych addytywnych modeli z efektami mieszanymi (GAMM). Wyniki pokazują malejący udział realizacji [ł] w nowszych nagraniach. Dla danych percepcyjnych ograniczonych do pełnej zgodności czworga anotatorów, [ł] pojawia się wyłącznie w pozycjach CV i VCV. W słownictwie liturgii chrześcijańskiej udział [ł] wyniósł 44% wobec 30% w semantycznie neutralnej leksyce. W pozycjach CV i VCV latach 1979–1987 [w, ł, l] pozostawały statystycznie różne. W latach 1991–1997 [ł] wykazywało zwiększoną zmienność, częściowo nakładając się na [w]. W latach 1999–2002 [ł] przesunęło się ku jaśniejszej artykulacji, nie będąc odtąd statystycznie różne od [l] pod względem wartości F2-F1. W późnym systemie fonologicznym Jana Pawła II realizacje /ł/ stają się bardziej zmienne i współwystępują z hipoartykułowanymi, silnie zwokalizowanymi, a zarazem akustycznie jasnymi realizacjami w pozycji międzysamogłoskowej. Omawiany jest wpływ wieku, choroby Parkinsona oraz następstw zamachu z 1981 r. na obserwowane zmiany w realizacjach /ł/.

📝 Notka biograficzna: Szczegółowe informacje na stronie: https://lpp.cnrs.fr/equipe/doctorants/juliusz-cecelewski/

📂 Pliki:

[Prezentacja]

[slide-13_1987_VCV_kosciolowi.wav] [slide-13_1997_VC_malzenska.wav]

[slide-22_1979_w_kosciola.wav] [slide-22_1987_l_kosciola.wav]

[slide-22_2002_hypoarticulated_kosciola.wav]

📅 Data: 17 czerwca 2025 (wtorek),
🕔 godz. 17.00
🎥 Nagranie: [Link ]

📃  Streszczenie: Żywy język etniczny nieustannie się zmienia. Zmiany mogą być wynikiem wpływu różnorodnych czynników. Niektóre stają się tendencjami lub utrwalają się, powodując konsekwencje w strukturze i funkcjach. Dokonują się na poziomie leksykalnym, morfologicznym, składniowym, stylistycznym i także na poziomie fonetyczno-fonologicznym. Wykład będzie dotyczył wyrazistych procesów fonetycznych: akcentu wyrazowego oraz samogłosek nosowych w oficjalnej odmianie dzisiejszego języka polskiego.

📝 Notka biograficzna: dr hab. Paweł Nowakowski jest językoznawcą, wykładowcą na Wydziale Etnolingwistyki Uniwersytetu im. Adama Mickiewicza w Poznaniu, kierownikiem Zakładu Fonetyki. Zajmuje się problemami językoznawstwa teoretycznego i porównawczego, biolingwistyki oraz fonetyki opisowej języka polskiego.

📅 Data , godz. 15 kwietnia 2025,
🕔 godz. 17:00
🎥 Nagranie: [Link ]

📃  Streszczenie: Znany jest prawie każdemu Chat GPT. Jednak istnieją zróżnicowane i dużo prostsze metody przetwarzania języka naturalnego. W tym wykładzie zostaną przedstawione podstawowe metody przetwarzania języka naturalnego poprzez zastosowanie sieci neuronowych w tym też transformera. Wykład przeznaczony dla osób, które chcą postawić pierwsze kroki w tym zagadnieniu.

📝 Notka biograficzna: dr inż. Leszek Gajecki jest wykładowcą Wyższej Szkoły Informatyki i Zarządzania z Siedzibą w Rzeszowie. Brał udział w projektach badawczych z zakresu przetwarzaniem języka naturalnego, rozpoznawania mowy, a także technik sieci neuronowych i uczenia maszynowego.
https://wsiz.edu.pl/kadra-akademicka/lgajecki/