La responsabilité sociale est le concept que les entreprises devraient se concentrer sur plus que juste la ligne de fond financière, mais doivent aussi agir comme de bons citoyens corporatifs qui contribuent à l'amélioration du monde. La responsabilité sociale est une idée qui est de plus en plus fréquente chez les plus grandes entreprises, et de tous ceux qui travaillent dans le monde de l'entreprise doit se familiariser avec ce concept.