Jestem ciekawa waszych opinii.
Naczytałam się trochę o tym - w każdym artykule zachwalają, że to zdrowe,
naturalne itp.
A co wy o tym myślicie? Faktycznie tak jest - ekologiczne sklepy na prawdę
sprzedają taką naturalną a co za tym idzie, lepszą żywność? Czy to ściema i
próba naciągnięcia klienta na kasę?
Ja nie piszę czy jestem za czy przeciw, żeby nikt się nie sugerował - chcę
poznać zdanie innych