Dati una funzione y = f(x) e un intervallo I della retta reale su cui è definita f, è interessante studiare la relazione tra le variazioni di y e le variazioni di x in I.
Prendiamo il semplice caso di una funzione lineare f(x) = m x + q.: se x varia da un punto x1 ad un altro x2 su un dato intervallo I della retta reale, subisce una variazione x2 – x1 mentre y è soggetto alla variazione f(x2)-f(x1) = m(x2 – x1). La relazione tra le due variazioni è data da un fattore di proporzionalità m che non dipende dalla variazione x2 – x1
Per quali funzioni f è possibile quantificare la relazione tra una generica variazione x2 – x1 sull’intervallo I dato e la corrispondente variazione f(x2)-f(x1)? Questo è il problema da cui nasce la proprietà di Lipschitz che affrontiamo nei seguenti articoli: