Há algumas décadas, o papel das empresas privadas não se resume apenas em oferecer um serviço e lucrar. Elas, também, têm se preocupado em realizar ações internas e externas que contribuam positivamente para o desenvolvimento da sociedade.
Essa prática é chamada de responsabilidade social, tendo início nos anos 1960, nos Estados Unidos, quando houve um aumento na conscientização dos segmentos da sociedade em relação às obrigações do empresariado, cobrando melhorias na preservação da natureza e dos direitos dos consumidores.