Un libro feminista es aquel que tiene como objetivo principal visibilizar y abordar las desigualdades de género, así como promover la igualdad entre hombres y mujeres. Estos libros analizan las estructuras patriarcales y cuestionan los roles y estereotipos impuestos por la sociedad. Además, suelen destacar la importancia del empoderamiento femenino y abogar por la diversidad y la inclusión. Un libro feminista invita a reflexionar sobre la opresión de género y a promover un cambio social hacia un mundo más equitativo.