Polska wciąż należy do krajów, gdzie kosmetyki wegańskie nie są jeszcze aż tak powszechne i popularne. To jednak na szczęście się zmienia i to bardzo szybko. O naturze w Polsce W naszym kraju weganizm staje się coraz bardziej popularny. Wszystko zaczęło się od przygotowywania posiłków, jednak powoli trend ten ogarnia również inne dziedziny życia, w…