Hatırlatma Genlikte Ayrık Algılayıcı Yakınsama Teoremi Eğitim kümesi doğrusal ayrıştırılabilir ise genlikte ayrık algılayıcı için verilen öğrenme kuralı sonlu adımda bir çözüm verir. Tanıt: c=1 X eğitim kümesindeki tüm girişler olsun (1) x ,x ( 2) ,...., x Bu eğitim kümesine karşı düşen ağırlık vektörleri (1) ( 2) ( k 1) (k ) ,..... (k ) w , w ,...., w ,..... w (k ) olan adımlarda eğitim kümesindeki örüntüler ve ağırlık vektörleri yukarıdaki dizilerden çıkarılsın w ( j )T x 0 ve x S1 Ağırlıkların güncellenmesi w gereken her adımda ne ( j )T ( j ) ( j) w x 0 ve x S2 oluyor? ( j) ( j) Hatırlatma Güncelleme sırasında neler olacak ( 2) (1) (1) w w x (3) ( 2) ( 2) (1) (1) ( 2) w w x w x x ( 4) (3) (3) (1) (1) ( 2) (3) w w x w x x x ( k 1) w öğrenme kuralı w (k ) x (k ) w x (1) (1) .... x (k ) x S1 w x0 w(k 1) w(k ) x x S2 w x0 w(k 1) w(k ) x T T Eğitim kümesi doğrusal ayrıştırılabilir çözüm kümesi w , w x 0 * Bir w seçilsin T *T ˆ min w x xX *T ˆ w w(1) *T ( k 1) *T (1) *T (1) *T ( k ) w w w w w x .... w x T w* w( k 1) k 2 T * w w ( k 1) 2 *T w w ( k 1) Alt sınır 2 k 2 w ( k 1) 2 (k ) 2 * 2 w w(i 1) w(i ) x(i ) (i 1) 2 w (i 1)T w (i 1) w w x w w Neden? ( i )T ( i ) ( i )T 0 w w 2w (i ) 2 (i 1) 2 ( i )T ( i ) (i ) 2w (i ) 2 w ( i )T x x x x (i ) x (i ) 2 ( i )T ( i ) x (i ) 2 Nasıl geldik? i 1,2,3,...,k w ( k 1) 2 k x (i ) 2 w (1) 2 i 1 A ˆ max x xX 2 (1) 2 Üst sınır kA w (1) 2 kA w w ( k 1) 2 w ( k 1) 2 (k ) 2 * 2 w ( k 1) 2 kA w (1) 2 w Alt sınır Üst sınır (k m ) 2 * 2 km A w (1) 2 w en büyük adım sayısı yukarıdaki eşitliğin belirlediği km ‘den büyük olamaz Genlikte Sürekli Algılayıcı (ADALİNE) Bernard Widrow-Tedd Hoff (1960) x1 x1 w1 x2 w2 wn xn x2 w2 v y y xn wn+1 1 v w1 w1 1 w2 .... wn wn1 x1 x 2 . . . xn 1 wn wn+1 v w1x1 w2 x2 ... wn xn wn11 y (v) tanh av 1 y (v ) 1 e av x1 Genlikte Sürekli Algılayıcı için Öğrenme kuralı w1 x2 w2 wn xn v y wn+1 1 - e + + yd Amaç: hatayı azaltacak ağırlıkları belirlemek Hataya ilişkin bir fonksiyon oluşturularak işe başlanacak Neden bir e yd y fonksiyon? 1 T E e e ( yd y)T ( yd y) ( yd (v))T ( yd (v)) 2 Nasıl azaltabiliriz? Amaç: min E n1 wR Neden vazgeçtik? 1 T E e e ( yd y)T ( yd y) ( yd (v))T ( yd (v)) 2 ( yd ( w1 x1 w2 x2 ... wn xn wn11))T ( yd ( w1 x1 w2 x2 ... wn xn wn11)) Böylece E’nin w’ya bağımlılığını açıkça yazdık, acaba min E n1 w R sağlayan w’ları nasıl buluruz? E ( w( k 1) ) E ( w( k ) ) sağlayacak w( k 1) ‘i w(k ) ‘dan nasıl elde ederiz? w(k ) ? w(k 1) w( k ) cE w( k 1) Nasıl bulunur? E ( w( k 1) ) E ( w( k ) ) v E w w 1 1 v E w2 w2 E e y v E ˆ ( yd y ) (v) e y v w v E wn 1 wn 1 x1 x Öğrenme Kuralı: 2 w ( yd y) (v) x ( yd y ) (v) 1 Aktivasyon fonksiyonunu lineer alırsak ... w ( yd y) (v) x w ( yd y) x Bir de girişleri normalize edersek ... w ( yd y) (v) x w ( yd y ) x x ADALINE’ı nerede kullanabiliriz • sınıflandırma probleminde 1 Eğitim aşamasından sonra y 1 • yaklaşık eğri uydurma • Lineer regresyon n wij xi 0 i 1 n wij xi 0 i 1 Hep iki sınıfa ayırdık daha fazla sınıfa nasıl ayıracağız? Unutulmaması gereken kısıt ne? Verilenler: x , l l yd P l 1 Eğitim Kümesi Amaç: m sınıfa ayırmak n S1 : wi xi wn 1 T1 i 1 n http://richardbowles.tripod.com/neural/slpmlp/ S 2 : T1 wi xi wn 1 T2 i 1 ..... n S 2 : Tm 1 wi xi wn 1 Tm i 1 1 T Öğrenme Kuralı: w c [ yd y]x 2 w (( yd y) (v))xT Çok Katmanlı Algılayıcı-ÇKA (Multi-Layer Perceptron) Teorem: (Kolmogorov 1957) f ( x1, x2 ,..., xn ) g ij (.) h j (.) xi [0,1]n , n 2 f ( x1 , x2 ,..., xn ) ‘e bağlı olmayan monoton artan sürekli tek değişkenli fonksiyon sürekli tek değişkenli fonksiyon n f ( x1 , x2 ,..., xn ) h j gij xi j1 i 1 2n1 Teoremin sonuçları..... • Kolmogorov Teoremi bir varlık teoremi f ( x1 , x2 ,..., xn ) ‘i özel bir şekilde ifade edebileceğimizi söylüyor. g ij (.) ve h j (.) ‘nin ne yapıda olduklarını ve kaç tanesinin yeterli olacağını söylüyor. • Kolmogorov Teoremi bir varlık teoremi olduğundan h j (.) nasıl belirlenir söylemiyor. g ij (.), Kolmogorov Teoreminde bazı şeylerden vazgeçelim; tam olmasın yaklaşık olsun ama fonksiyonları bilelim. Teorem: (Cybenko 1989) N yeterince büyük, j R , herhangi bir sürekli sigmoid N fonksiyon f ( x1 , x2 ,..., xn ) ~ j w j T x j j1 df a, b R ve a b f : R R 0 dx lim f ( x) a lim f ( x) b f x Giriş x Gizli katman 1Gizli katman 2 Çıkış http://www.oscarkilo.net/wiki/images/8/84/Ffperceptron.png sigmoid • Ağ yapısı giriş katmanı işlem yapan gizli katmanlar işlem yapan çıkış katmanı • Nöron sürekli türetilebilir, lineer olmayan aktivasyon fonksiyonu var • Eğitim eğiticili öğrenme • Öğrenme algoritması geriye yayılım