Związki zawodowe w Polsce to organizacje, które przede wszystkim bronią pracowników – swoich członków, ich praw, interesów materialnych oraz godności zawodowej. Choć często postrzegane są różnie w opinii publicznej, ich podstawowa misja pozostaje niezmienna od dziesięcioleci: ochrona ludzi pracy przed nieuczciwym traktowaniem i walka o lepsze warunki zatrudnienia. Prawne podstawy działania związków zawodowych Fundamentem funkcjonowania związków zawodowych w Polsce są przepisy konstytucyjne...