δ(r,s)≔[r=s].Větakonvergence učení perceptronu Nechť je množina učicích vzorků, pro něž existuje posloupnost vah vedoucí k jejich správné klasifikaci do dvou tříd. Nechť má vlastnosti:
Potom učicí algoritmus daný pomocínajde pro libovolné počáteční nastavení v konečném počtu iterací.Poznámka V praxi máme jen konečný počet učicích vzorků, takže stačí splnit podmínku lineární separability.Věta Co když ale data nejsou lineárně separabilní? To můžeme vyřešit přidáním dalších dimenzí. Budeme mít nějakou jádrovou funkci , která má tu vlastnost, že její Gramova matice je symetrická a pozitivně semidefinitní.