La définition de jaunir dans le dictionnaire est devenir jaune, prendre naturellement une teinte jaune en mûrissant, en parvenant à maturité.