Yapay zekadan makale özeti
- Kısa
- Ayrıntılı
- Bu video, bir podcast formatında olup, sunucu ve konuk Andre Karpathi (15 yıllık AI deneyimi, Eureka eğitim kurumu kurucusu) arasında geçen teknik bir sohbeti içermektedir. Ayrıca Max olarak tanıtılan Mercury şirketinin genel müdürü ve Tesla'da beş yıl çalışan bir konuşmacı da katılmaktadır.
- Sohbet, yapay zeka (AI) teknolojisinin gelişimi, mevcut durumu ve gelecekteki potansiyeli üzerine odaklanmaktadır. Video, AI'nin tarihsel gelişiminden başlayarak, büyük dil modelleri (LLM), chatbot geliştirme, RL (Reinforcement Learning), model çöküşü, AGI (Yapay Genel Zeka) ve ekonomik büyüme etkileri gibi konuları ele almaktadır. Ayrıca, AI'nin eğitim sistemindeki rolü ve gelecekteki eğitim modelleri hakkında da tartışmalar yapılmaktadır.
- Sohbette AI'nin insan zekasına benzerlikleri ve farklılıkları, pre-training süreci, in-context learning, model parametreleri ve gelecekteki boyut tahminleri gibi teknik konular detaylı olarak incelenmektedir. Konuşmacılar, AI'nin iş dünyasındaki etkileri, self-driving teknolojileri ve eğitimdeki potansiyeli hakkında farklı görüşler paylaşırken, gelecekteki teknolojik gelişmelerin insanlık üzerindeki olası etkileri de tartışılmaktadır.
- AI ve Reinforcement Learning Hakkında Görüşler
- Konuşmacı, reinforcement learning'in zor olduğunu ancak kendisinin bu konuda iyimser olduğunu belirtiyor.
- Twitter'da gördüğü bazı AI projelerinin sadece finansman amaçlı olduğunu ve aslında hayvanlar değil, eterik ruh varlıkları (ghosts) oluşturduğunu düşünüyor.
- Günümüzde bir zeka patlaması yaşanıyor ve her şey yavaş yavaş otomatikleştiriliyor, bu nedenle blog yazıları yazmak yerine kod yazmak ve işleri otomatikleştirmek gerekiyor.
- 00:51Andre Karpathi'nin Görüşleri
- Andre Karpathi, "bu yıl değil, bu on yıl olacak" ifadesini kullanarak AI'nin gelişimini tanımlıyor.
- Bazı laboratuvarların "bu yıl olacak" ifadesini kullandığını ve bu durumun aşırı tahminlere yol açtığını düşünüyor.
- Şu anda Cloud ve Codex gibi etkileyici erken ajanlar var, ancak hala çok fazla çalışma yapılması gerekiyor.
- 01:50Ajanların Gelişim Süreci
- Ajanlar, bir çalışan veya intern gibi düşünülebilir ve şu anda yeterli zeka, multimodalite ve sürekli öğrenme yetenekleri yok.
- Andre Karpathi, bu sorunların çözülmesi için yaklaşık on yıl gerekeceğini düşünüyor.
- Bu tahmin, yaklaşık on beş yıllık AI deneyiminden ve sektördeki deneyimlerinden kaynaklanıyor.
- 04:05AI'nin Tarihsel Gelişimi
- AI alanında birçok dramatik değişim yaşanmış ve Andre Karpathi bunlardan iki veya üçünü yaşamış.
- Derin öğrenme alanında ilk dramatik değişim, AlexNet gibi modellerin ortaya çıkmasıyla gerçekleşmiş ve herkes neural ağları eğitmeye başlamış.
- Daha sonra, Atari oyunları üzerinde derin pekiştirme öğrenimi çalışması, AI'nin gelişiminde önemli bir adım olarak görülüyor.
- 05:36AI Gelişimindeki Hatalar ve Gelecek
- Atari oyunları üzerinde derin pekiştirme öğrenimi çalışması, AI'nin gelişiminde bir hata olarak değerlendiriliyor.
- OpenAI'nin Universe projesi, klavye ve fare kullanarak web sayfalarını işleten bir ajan geliştirmeye odaklanmış.
- Günümüzde, AI'nin gelişimi için önce büyük dil modelleri (LMS) geliştirilip temsil gücü kazanılması gerekiyor.
- 08:18Yapay Zeka ve Hayvanlar Arasındaki Benzerlikler
- Konuşmacı, yapay zeka (AI) için hayvanların büyüme sürecini taklit etmek yerine, milyonlarca yıl süren eğitim sürecini kullanmanın daha iyi olabileceğini düşünüyor.
- Hayvanların evrim süreciyle geliştiği ve bu süreçte büyük miktarda donanımın doğuştan geldiği belirtiliyor.
- Zebra örneğinde, doğduktan sonra birkaç dakika içinde koşabilme ve annesini takip etme yeteneği, evrim sürecinde kodlanmış bir özellik olarak açıklanıyor.
- 09:17Yapay Zeka ve Hayvanların Farklılıkları
- Konuşmacı, yapay zeka geliştirme sürecinde evrim sürecini taklit etmek yerine, insanların internet üzerinden paylaştığı verileri kullanarak "ghost" veya "ruh" gibi eterik varlıklar oluşturduğunu belirtiyor.
- Yapay zeka, hayvanlar gibi evrimsel bir süreçle değil, insanlar tarafından imitasyon edilerek geliştirildiği için farklı bir zeka türü oluşturuyor.
- Konuşmacı, Sutton'un hayvanların evrimsel öğrenme sürecini taklit etme fikrini destekliyor ve bu yöntemin başarılı olabileceğini düşünüyor.
- 10:18Hayvanların Öğrenme Süreci
- Hayvanların öğrenme sürecinin evrimsel bir süreç olduğu ve bu süreçte çok fazla öğrenme değil, beyin olgunlaşması olduğu belirtiliyor.
- Hayvanların öğrenme sürecinin büyük ölçüde motor görevlerine odaklandığı, ancak zeka görevleri için çok az kullanıldığı vurgulanıyor.
- İnsanların da çok fazla zeka görevi için değil, motor görevlerine odaklandığı, ancak bu durumun araştırma amaçlı değil, doğal bir süreç olduğu belirtiliyor.
- 11:14Evrim ve Yapay Zeka Arasındaki Benzerlikler
- Evrim, pre-training gibi bir süreç olarak görülüyor; evrim, bir algoritmayı bulup sonra bu algoritmanın ömür boyu öğrenme yapmasını sağlıyor.
- İnsan beyninin üç gigabayt DNA'da tüm bilgilerin saklanamayacağı, bu nedenle bazı bilgilerin sıkıştırıldığı ve öğrenme algoritmalarının bu bilgileri kullanarak öğrenme yaptığı belirtiliyor.
- Konuşmacı, yapay zeka geliştirme sürecinde evrimsel bir süreç yerine, internet belgelerini taklit ederek "ghost" veya "ruh" gibi eterik varlıklar oluşturduğunu vurguluyor.
- 13:09Pre-Training ve Evrim Arasındaki Farklar
- Evrim, bilgi vermek yerine, bilgiyi bulma algoritmasını veriyor; pre-training ise bilgi vermek yerine, öğrenme sürecini geliştirmek için meta-öğrenme öğretiyor.
- Pre-training, internet üzerinden gelen bilgileri toplayarak ve algoritmik kalıpları gözlemleyerek, nöral ağlarda in-context öğrenme gibi özellikler geliştirmeye yardımcı oluyor.
- Konuşmacı, yapay zeka modellerinin çok fazla bilgiye bağımlı olduğunu ve bu durumun onların performansını olumsuz etkilediğini düşünüyor.
- 14:41In-Context Öğrenme ve Gradient Descent
- In-context öğrenme, yapay zeka modellerinin en zeki olduğu ve konuşmacıya anlamlı tepkiler verdiği bir süreç olarak tanımlanıyor.
- In-context öğrenme, nöral ağlarda gradient descent kullanılarak geliştirilen bir süreç olarak görülüyor.
- Bazı araştırmalar, in-context öğrenmenin nöral ağlarda küçük bir gradient descent döngüsü içerdiğini ve bu sayede doğrusal regresyon gibi matematiksel işlemler yapabildiğini gösteriyor.
- 16:51In-Context Learning ve Gradient Descent İlişkisi
- In-context learning algoritmasında ağırlıkların gradient descent ve mekaniklerle benzerlikleri tespit edilmiştir.
- Paper'da ağırlıklar hard-coded edilerek gradient descent üzerinden dikkat ve tüm iç mekanikler uygulanmıştır.
- In-context learning'in aslında bir tür funky gradient descent içerebileceği düşünülmektedir.
- 17:49Pre-Training ve In-Context Learning Arasındaki Farklar
- Pre-training ve in-context learning'in her ikisi de benzer bir algoritma kullanıyorsa, neden in-context learning'de daha gerçekçi bir zeka hissi oluşuyor?
- Pre-training'de (örneğin Llama 3) 15 trilyon token eğitilirken, 70B modelinde bu 0,07 bit per token'a denk gelir.
- In-context learning'de KV cache, her ek token için 320 kilobyte büyüyerek, pre-training'e göre 35 milyon kat daha fazla bilgi per token asimile eder.
- 18:36Bilgi Depolama ve Hafıza Karşılaştırması
- Neural network'te öğrenilen bilgi, eğitim sırasında yaşananların bir tür hazy hatırlamasıdır çünkü büyük miktarda veri sıkıştırılır.
- Pre-training'de 15 trilyon token, birkaç milyar parametreli bir neural network'e sıkıştırılır.
- In-context learning'de KV cache, test sırasında doğrudan erişilebilir bir çalışma hafızası görevi görür.
- 19:16İnsan Beyni ve LLM'ler Arasındaki Benzerlikler
- LLM'ler ve insanlar arasında şaşırtıcı benzerlikler vardır, ancak LLM'ler doğrudan insan beyni oluşturmak için değil, sadece işe yarayan bir sistem bulmak için geliştirilmiştir.
- LLM'lerde test sırasında verilen bilgi doğrudan çalışma hafızasında bulunurken, pre-training'de bilgi bir tür hazy hatırlamasıdır.
- LLM'ler kitap hakkında bilgi verirken, tam bir bölüm verildiğinde daha iyi sonuçlar verir çünkü bu bilgi çalışma hafızasında bulunur.
- 20:09İnsan Beyni ve LLM'ler Arasındaki Farklar
- İnsan beyninin birçok kısmı ve çekirdeği henüz LLM'lerde tam olarak replike edilememiştir.
- Transformer neural network'ler, çok genel ve güçlü bir yapıya sahiptir; ses, video veya metin üzerinde eğitilebilir ve kalıpları öğrenir.
- Transformer'lar, beyin korteksinin plastik yapısına benzer şekilde, farklı veri türlerine uyarlanabilir.
- 20:57Beyin Bölümlerinin LLM'lerdeki Karşılıkları
- LLM'lerde düşünme ve planlama, prefrontal korteks gibi bir yapıya benzer şekilde çalışır.
- Bazal ganglia, reinforcement learning yaparken, amygdala ise duygular ve içgüdülerle ilgilidir.
- LLM'ler, insan beyninin tüm parçalarını ve çekirdeklerini henüz tam olarak replike edememektedir.
- 22:10Continual Learning ve Uyku Süreci
- Continual learning, modelin uzun süreli bilgileri hatırlaması için teşvik edilmesiyle kendiliğinden ortaya çıkabilir.
- LLM'ler, sıfır token ile başlatıldığında her zaman sıfırdan başlarlar.
- Uyku sırasında, insanlar için bir distilasyon süreci gerçekleşir; bu süreç, LLM'lerde henüz tam olarak replike edilememiştir.
- 24:51Gelecekteki LLM'ler ve Yapay Zeka
- Gelecekte LLM'ler hala transformer tabanlı olabilir, ancak daha gelişmiş dikkat mekanizmaları ve daha az yoğun MLP'ler içerebilir.
- 10 yıl önce, 20-25 yıl önce, convolutional neural networks ve residual networks yaygındı, ancak transformer henüz yaygın değildi.
- Gelecekte, büyük neural networks hala gradient descent ile eğitilecek, ancak daha gelişmiş ve daha büyük olacak.
- 26:04Yapay Zeka Teknolojisinin Gelişimi
- Konuşmacı, zaman yolculuğu yaparak 33 yıl geriye giderse, 1989'da Janloon'un yaptığı işi yaparak hata oranını yarıya indirebileceğini belirtiyor.
- Daha fazla ilerleme için daha fazla veri, daha iyi donanım, daha iyi kerneller ve yazılımlar, daha iyi algoritmalar gerekiyor ve bunların hepsi aynı anda geliştirilmeli.
- Konuşmacı, gelecekte büyük nöral ağların ve gradient descent ile eğitilen modellerin hala kullanılacağını tahmin ediyor.
- 27:57Nanochat Repository Hakkında
- Nanochat, bir chatbot oluşturmak için tüm adımları kapsayan en basit ve tam bir depo olarak tanımlanıyor.
- Depo, her adımı ayrı ayrı gösteren küçük kod parçaları içeriyor ve tüm pipeline'ı kapsıyor.
- Konuşmacı, depodan öğrenmek için kullanıcıların kodu kopyalamak yerine referans alarak kendi kodlarını yazmalarını öneriyor.
- 30:42Kod Yazma Süreci ve Modellerin Rolü
- Konuşmacı, depo oluşturmak için yaklaşık bir ay sürdüğünü ve insanların kodla etkileşime üç farklı şekilde girdiğini belirtiyor: tamamen sıfırdan yazmak, otomatik tamamlama kullanmak ve modelleri kod yazmak için kullanmak.
- Modeller özellikle boilerplate kodlarda ve internette sıkça görülen kodlarda başarılı oluyor.
- Nanochat gibi özel ve entelektüel kodlarda modeller, kodun yapısını anlayamıyor, gereksiz güvenlik önlemleri ekliyor ve kodu karmaşıklaştırıyor.
- 34:30AI'nin Kod Yazma Yeteneği
- Konuşmacı, Python'da yazdığı tokenizer'ı Rust'a aktarırken, Rust'ta daha iyi bir kod yazma deneyimi olmadığını belirtiyor.
- AI'nin kod yazma yeteneği, kullanıcıların daha az aşina oldukları diller veya paradigmaları kullanmalarını kolaylaştırıyor.
- AI modelleri, Rust gibi dillerde kod yazma konusunda oldukça başarılı olabiliyor.
- 35:11AI'nin Kod Yazma Yeteneğinin Sınırları
- AI'nin kod yazma yeteneği, AI'nin kendini otomatik olarak geliştirmesi ve araştırma yapabilmesi konusunda önemli bir potansiyel taşıyor.
- AI modelleri, daha önce hiç yazılmamış kodları tam olarak entegre edemiyor ve bu konuda sınırlı.
- GPT-5 Pro gibi güçlü AI modelleri bile, kullanıcıların kodlarını tam olarak anlayamıyor ve bazen yanlış sonuçlar veriyor.
- 37:42Programlama ve AI'nin Geleceği
- Programlama tarihinde, daha iyi compilers, linting ve programlama dilleri gibi gelişmeler programlama üretkenliğini artırmış ancak bir "patlama" yaratmamış.
- Konuşmacı, AI'yi temelde hesaplama sürecinin bir uzantısı olarak görüyor ve bu süreçte sürekli bir kendini iyileştirme süreci olduğunu düşünüyor.
- İnsanlar, düşük seviye kod yazma gibi işleri otomatikleştirerek daha yüksek seviyede kodlama yapabiliyor ve bu süreçte "özerklik kaydırması" yaşanıyor.
- 39:38Labelbox ve AI Eğitimi
- RL'de bilgi eksikliği büyük bir sorun olup, Labelbox bu sorunu çözmek için her bir eğitim aşamasında ajanın aldığı bilgileri artırıyor.
- Labelbox, bir müşteri için kodlama ajanı eğitmek için IDE'ye ekstra veri toplama araçları eklemiş ve uzman yazılım mühendisleri tarafından optimize edilmiş eğitim yolları oluşturmuş.
- Bu uzmanlar, her bir etkileşimi değerlendirmiş ve her yanıt için okunabilirlik ve performans gibi farklı boyutlarda değerlendirme yapmış.
- 40:54RL ve İnsan Öğrenme Süreci
- RL-A-Bet, insanların nasıl zengin bir dünya modeli oluşturabildiklerini ve bu süreçte final ödülün önemsiz olduğunu gösteriyor.
- İnsanlar, bir iş başlattığında ve on yıl sonra başarılı olup olmadığına baktığında, bu süreçte kazandıkları deneyim ve bilgiden yararlanıyor.
- Konuşmacı, insanların öğrenme sürecinin, sadece doğru cevabı bulmakla kalmayıp, tüm deneyimlerden öğrenme sürecini içerdiğini vurguluyor.
- 41:35Reinforcement Learning'in Sorunları
- Reinforcement learning, insanların öğrenme sürecinden çok daha basit ve etkili değil.
- Reinforcement learning'de, bir matematik problemi çözüldüğünde, yüzlerce farklı deneme yapılarak doğru cevap bulunuyor.
- Bu yöntem, sadece doğru cevabı bulan denemeleri ağırlaştırırken, yanlış denemeleri de doğru cevabı bulmak için yapılan çalışmalar olarak değerlendiriyor, bu da modelin gürültülü ve hatalı sonuçlar vermesine neden oluyor.
- 43:18RL ve İmitasyon Öğrenmesi
- RL'de "sucking supervision through a straw" (sürükleme denetimi) olarak adlandırılan yöntem, tüm çalışma sürecinin sonunda tek bir ödül sinyali üzerinden değerlendirme yapmayı gerektirir.
- İnsanlar yüzlerce rollout yapmaz ve buldukları çözümü inceledikten sonra gerekli düzeltmeleri yaparlar, ancak mevcut LMS'lerde bu tür bir değerlendirme mekanizması yoktur.
- İmitasyon öğrenmesi, özellikle GPT gibi pre-trained modelleri sadece birkaç döngüde ince ayarlayarak çok daha doğal bir konuşma tarzına dönüştürmeyi sağlar.
- 44:54RL'nin Avantajları ve Sorunları
- RL, sadece imitasyon öğrenmesinden daha iyi sonuçlar verir çünkü ödül fonksiyonlarını kullanarak "hill climbing" (dağ tırmanışı) yapabilir ve bazı problemlerin doğru cevaplarını keşfedebilir.
- RL hala yetersizdir ve daha fazla ilerleme için yeni yaklaşımlar gereklidir.
- Google gibi şirketler, süreç bazlı denetim fikrini yansıtan makaleler yayınlamıştır.
- 46:17Süreç Bazlı Denetimin Zorlukları
- Süreç bazlı denetim, sadece son adımda değil, her adımda modelin performansını değerlendirmeyi gerektirir.
- Bu yöntemde kısmi çözümler için otomatik kredi ataması yapmak zordur çünkü modeller genellikle çok büyük ve gamelar.
- Reinforcement learning ile LMS'leri eğitirken, modeller genellikle "adversarial örnekler" (düşman örnekler) bulabilir ve bu durumda modeller yanlış kararlar verebilir.
- 48:34LMS'lerin Sorunları ve Çözüm Önerileri
- LMS'ler, eğitim sırasında görmediği "out-of-sample örnekler" için aşırı yüksek ödüller verebilir ve bu durumda modeller yanlış kararlar verebilir.
- LMS'leri daha iyi yargılamak için GAN (Generative Adversarial Network) benzeri yaklaşımlar kullanılabilir.
- Bazı araştırmacılar, sentetik örnekler oluşturarak LMS'leri eğitme ve meta öğrenme yapma fikrini geliştirmektedir.
- 50:38İnsan Davranışlarının Modelleme Sorunları
- İnsanlar, yeni problemler oluşturmak yerine, uyku veya gündüz hayalinde olduğu gibi, mevcut bilgileri yansıtarak yeni çözümler bulabilirler.
- Mevcut LMS'ler, kitapları okurken olduğu gibi, metni sadece tahmin ederek değil, bilgiyi manipüle ederek öğrenme sürecini gerçekleştiremez.
- LMS'lerin pre-training aşamasında, metni düşünüp mevcut bilgilerle uyumlu hale getirme gibi bir süreç bulunmamaktadır.
- 52:04Model Çöküşü ve Sentetik Veri Üretimi
- Sentetik örneklerin görünümü iyi olsa da, bu modelleri eğitmeye devam etmek onları daha da kötü hale getirir çünkü modeller sessizce çöküyor.
- Modellerin veri dağılımı "silently collapsed" olarak adlandırılır ve bu durumda modeller sadece çok sınırlı bir manifold üzerinde yer alır.
- Chat GPT gibi modeller sadece birkaç tür şaka üretebilir, bu da modellerin zenginliğini ve çeşitliliğini sınırlar.
- 52:52İnsan ve Model Karşılaştırması
- İnsanlar daha gürültülü olsa da, istatistiksel anlamda önyargılı değil ve büyük miktarda entropiye sahiptir.
- Sentetik veri üretimi için çöküş ve entropiyi korumak bir araştırma problemidir.
- Modeller, aynı prompt bilgisine sürekli yanıt verirken, dağılımları kötüleşir ve zamanla çöküşe neden olur.
- 53:51İnsan ve Model Çöküşünün Benzerlikleri
- Konuşmacı, bu çöküşün temel çözümlerinin olmayabileceğini ve insanların da zamanla çöküşe uğradığını düşünüyor.
- Çocuklar henüz çökmemişlerdir ve bu nedenle şaşırtıcı şeyler söyleyebilirler, ancak yetişkinler çöktükleri için aynı düşünceleri tekrar ederler.
- Rüyalar, bu tür çöküşü önlemek için evrimsel olarak tasarlanmış olabilir çünkü rüyalar bizi günlük gerçeklikten farklı durumlara sokar.
- 55:19Öğrenme ve Bellek Karşılaştırması
- Çocuklar bilgi hatırlamada çok kötü olsa da, yeni diller öğrenme ve dünya hakkında öğrenme konusunda çok iyi olurlar.
- LLM'ler (Large Language Models) ise kelime kelime bilgileri hatırlayabilir ancak soyut kavramları öğrenme konusunda çocukların kadar iyi değildir.
- Yetişkinler, çocukluk kadar esnek olmasa da, bilgileri daha iyi hatırlayabilirler.
- 56:11Bellek ve Öğrenme Arasındaki İlişki
- İnsanlar, LLM'lerden farklı olarak "görmek için ormanı ağaçlar arasında görmek" yeteneğine sahiptir.
- İnsanlar bellek konusunda zayıf olsa da, bu durum onları genelleştirmeleri için zorlar.
- LLM'ler ise çok iyi bellek yeteneğine sahiptir ve rastgele verileri bile hatırlayabilir, bu da onların genelleştirmelerini zorlaştırır.
- 57:46Model Çöküşünün Çözümü
- Model çöküşünü önlemek için naif yaklaşımlar denenebilir, örneğin dağılımın genişletilmesi.
- Modellerin çoğu görevi, çeşitlilik gerektirmeyen görevlerdir ve bu nedenle çeşitlilik aktif olarak cezalandırılabilir.
- Modellerin daha fazla çeşitlilik üretmesi için entropiyi artırmak gerekebilir, ancak bu da modelin eğitim verilerinden uzaklaşmasına neden olabilir.
- 59:54Model Boyutu ve Gelecek
- Geçmişte daha büyük modeller (trilyonlarca parametre) tercih edilirken, şimdi daha küçük modeller tercih edilmektedir.
- Konuşmacı, gelecekte milyar parametreli modellerin bile çok üretken sohbetler yapabileceğini düşünmektedir.
- Bu modeller, bilmediği konularda bilgi aramak için "bakmak" gerektiğini söyleyebilir ve bu da onların daha gerçekçi olmasını sağlar.
- 1:00:51AI Modellerinin Boyutu ve Performansı
- Bazı VR modelleri trilyonlarca parametre içerse de çok fazla bilgi hatırlayabilir.
- GPT-20B, GPT-4'ün trilyonlarca parametresine rağmen daha iyi performans gösteriyor.
- Konuşmacı, 10 yıl sonra bilişsel çekirdeğin hala bir milyar parametre içermesinden şaşırıyor.
- 1:01:23Eğitim Verisi ve Model Boyutu İlişkisi
- Eğitim verisi olarak kullanılan internet çok kalitesiz, Wall Street Journal gibi kaliteli kaynaklar çok nadir.
- İnternet verilerinin kalitesi nedeniyle büyük modeller oluşturuluyor ve bu sıkıştırma işlemi çoğunlukla bellek işi.
- Konuşmacı, bilişsel kısmı optimize ederek daha küçük modeller elde edilebileceğini düşünüyor.
- 1:02:29Model Boyutunun Geleceği
- Distilasyon yöntemi oldukça etkili olmasına rağmen, 10 yıl içinde bilişsel çekirdek boyutu bir milyardan daha küçük olmuyor.
- Son yıllarda model boyutu iki kat küçülürken performans artıyor, bu da bilişsel çekirdeğin daha da küçülebileceğini gösteriyor.
- Konuşmacı, modelin bazı temel bilgiye sahip olması gerektiğini, ancak esoterik bilgiye sahip olmaması gerektiğini düşünüyor.
- 1:03:41Frontier Modellerinin Geleceği
- Frontier modellerinin büyüklüğü zamanla artıyor, ancak son dönemde azalma veya plato oluşuyor.
- Konuşmacı, laboratuvarların flops ve maliyet bütçeleri nedeniyle pre-training aşamasını küçülttüğünü düşünüyor.
- Veri setlerinin kalitesinin artacağı, donanımın gelişeceği ve algoritmaların optimize edileceği öngörülüyor.
- 1:06:02Mercury Platformu Tanıtımı
- Konuşmacı, altı ay önce Mercury platformuna (bankacılık platformu) erişim verildiğini anlatıyor.
- Mercury, PayPal, fatura işlemleri ve uluslararası kontratlar gibi tüm iş süreçlerini tek bir platformda yönetiyor.
- Mercury, finansal teknoloji şirketi olup bankacılık hizmetleri Choice Financial Group, Column A, Evolve Bank ve Trust Members FDIC tarafından sağlanıyor.
- 1:07:14AI'nin İlerleme Ölçümü
- İnsanlar AI'nin ilerlemesini nasıl ölçebileceklerini tartışıyor, eğitim seviyesi veya görev süresi gibi farklı yaklaşımlar öneriliyor.
- Konuşmacı, AI'nin ilerlemesini ölçmek için "herhangi bir ekonomik değerli görevi insan performansından veya daha iyi yapabilme" tanımını tercih ediyor.
- AI'nin sadece dijital bilgi işlerini değil, fiziksel işleri de yapabilmesi gerektiği vurgulanıyor.
- 1:09:26AI'nin İş Dünyasına Etkisi
- AI'nin iş dünyasına etkisi konusunda, hangi işlerin veya görevlerin daha kolay otomasyona uygun olduğunu belirlemek zor olabilir.
- Jeff Hinton'un radyologların AI ile işsiz kalacağı öngörüsü yanlış çıkmış, çünkü radyoloji karmaşık ve karmaşık bir iş olmasına rağmen, AI'nin bilgisayar görüşü teknolojisi bu işi tamamen otomatikleştirememiş.
- Call center çalışanları gibi, görevleri basit, tekrarlanabilir ve dijital olan işler daha kolay otomasyona uygun olabilir.
- 1:11:17Otomasyon ve İş Gücü İlişkisi
- Konuşmacı, tam otomasyon yerine "otonomiyet kaydırması" (autonomy slider) modelini öngörüyor; AI'nin %80'lik bir iş hacmini üstlenmesi ve %20'lik bir kısmını insanlara devretmesi bekleniyor.
- Otomasyon sürecinde, insanlar AI'leri yöneten bir ekip oluşturabilir ve AI'lerin %99'unu otomatikleştirdikten sonra, kalan %1'i insan tarafından kontrol edilebilir.
- Otomasyon sürecinde, son %1'i kontrol eden insanlar daha yüksek ücret alabilir çünkü bu insanlar işin en değerli kısmını gerçekleştiriyor ve diğer işleri otomatikleştiriyor.
- 1:14:00AI'nin Bilgi İşlerine Etkisi
- AI'nin bilgi işlerine etkisi, beklenen gibi tüm bilgi işlerini otomatikleştirmiyor; özellikle danışmanlar ve muhasebeciler gibi alanlarda büyük verimlilik artışı yaşanmıyor.
- AI'nin en büyük etkisi programcılar üzerinde hissediliyor; özellikle API gelirleri gibi alanlarda kodlama alanındaki gelişmeler öne çıkıyor.
- Kodlama, AI'nin en iyi performans gösterdiği alan çünkü kodlama temelde metin üzerine kurulmuş ve AI'ler metin işleme konusunda çok iyi performans gösteriyor.
- 1:15:56AI'nin Zorlandığı Alanlar
- AI'nin kodlama dışında, slaytlar gibi görsel içeriklerle ilgili işlerde zorlandığı görülüyor çünkü slaytlar metin değil, görsel bileşenler içeriyor ve bu alanlarda pre-yapılmış altyapı bulunmuyor.
- AI'lerin metin tabanlı görevlerde bile (örneğin, transkriptleri yeniden yazma veya klipler oluşturma) ekonomik değer elde etmesi zor olabiliyor.
- Konuşmacı, AI'nin gelecekte bir "süper zeka" (superintelligence) olarak görülebileceğini ve bu durumun toplumda bir ilerleme olarak değerlendirilebileceğini düşünüyor.
- 1:18:47AI ve Otomasyon
- Gelecekte daha fazla özerk varlığın dijital ve fiziksel işleri yapacağı, bu durumun temelde otomasyon olarak görüleceği belirtiliyor.
- Otomasyon, insanlar zaten yapabildiği işleri ve süper zeka tarafından sunulan yeni işleri kapsar, ancak insanlar yeni şeyler icat etme yeteneğine sahiptir.
- AI'nin varlığı, insan uygarlığını tamamen farklı hissettirecek ve bu durum çok yabancı ve garip gelecektir.
- 1:19:53Kontrol ve Anlayış Kaybı
- AI'nin gelişimi, insanların yavaş yavaş kontrol ve anlayış kaybı yaşayacağı bir süreç olarak görülüyor.
- Kontrol ve anlayış kaybı aynı şey olmayabilir; örneğin, prestijli şirketlerin yöneticileri çok az anlayışa sahip olabilirken, başkanlar çok güçlü olabilir.
- AI'nin gelişimi, birden fazla özerk ve rekabet eden varlığın ortaya çıkmasıyla, bu varlıkların birbirleriyle mücadele etmesiyle kontrol kaybına yol açabilir.
- 1:22:21AI'nin Ekonomik Etkisi
- AI modelleri şu anda daha çok bir derleyici gibi çalışmakta, ancak gelecekte gerçek AI (AGI) insanları tamamen yerine geçebilir.
- Konuşmacı, AI'nin bir "zeka patlaması" yaratmayacağını, çünkü zaten uzun süredir bir "zeka patlaması" yaşadığımızı düşünüyor.
- GDP eğrisi, birçok endüstrinin otomatikleşmesiyle birlikte, yüzlerce yıl boyunca sürekli bir artış göstermiştir.
- 1:23:52Ekonomik Büyüme ve Teknoloji
- Konuşmacı, AI'nin GDP eğrisinde belirgin bir şekilde görünmemesinin, teknolojinin yavaş ve yaygın bir şekilde yayılmasıyla ilgili olduğunu düşünüyor.
- Bilgisayarlar ve mobil telefonlar gibi teknolojiler de GDP eğrisinde belirgin bir şekilde görünmemiş, ancak zamanla ekonomik büyüme üzerinde etkili olmuştur.
- AI, yeni bir programlama ve bilgisayar sistemi olarak, daha önce yazılamayan programları yazmayı sağlayacak, ancak hala bir program olarak kalacaktır.
- 1:25:12Büyüme Hızı ve Teknoloji
- Son üç yüz yılda, teknoloji sürekli gelişmiş olsa da, ekonomik büyüme hızı yaklaşık iki yüzde olarak sabit kalmıştır.
- Konuşmacı, AI'nin ekonomik büyüme hızını değiştirmeyeceğini, sadece mevcut büyüme hızını (iki yüzde) sürdürmeyi sağlayacağını düşünüyor.
- Diğer konuşmacı, gerçek AI'nin (AGI) bir "zeka patlaması" yaratacağını ve bu teknolojinin diğer üretkenlik artıran teknolojilerden farklı olarak "labor" olarak görüleceğini savunuyor.
- 1:27:55AI ve Ekonomik Büyüme
- Konuşmacı, AI'nin bilgisayarların labor yapması gibi bir potansiyel taşıdığını ve bu durumun ekonomik büyüme üzerinde olumlu bir etki yaratabileceğini belirtiyor.
- Tarihsel büyüme rejimlerinin değiştiği örnekler verilerek, AI'nin de benzer bir etki yaratabileceği düşünülüyor.
- Konuşmacı, AI'nin tamamen akıllı ve esnek bir "insan kutusu" olarak görülmesinin yanıltıcı olduğunu, bunun yerine yavaş yavaş topluma entegre olacağını ve aynı büyüme deseninin devam edeceğini öngörüyor.
- 1:29:04Büyüme Modeli Hakkında Farklı Görüşler
- Konuşmacı, "zeka" kelimesinin bu bağlamda kullanılmamasının daha doğru olduğunu, çünkü bu kavramın tek bir süper zeka tarafından yeni teknolojilerin ortaya çıkması anlamına gelebileceğini belirtiyor.
- Büyüme modelinin, milyarlarca akıllı insan gibi zihnin yeni ürünler üretmesi ve ekonomiye entegre olmasıyla gerçekleşebileceğini, bu durumun Hong Kong ve Shenzhen gibi yerlerde yaşanan 10-20% ekonomik büyüme örneğine benzediğini düşünüyor.
- Konuşmacı, ani bir "discontinuity" (kesintisizlik) yerine, yavaş bir büyüme sürecinin devam edeceğini ve bu sürecin tarihsel önceliğin olmadığı bir "discrete jump" (ayrık sıçrama) olmayacağını savunuyor.
- 1:31:13Endüstriyel Devrim ve AI Karşılaştırması
- Konuşmacı, endüstriyel devrimin sihirli bir olay olmadığını, ancak ekonomiyi daha hızlı bir büyüme rejimine geçirdiğini belirtiyor.
- AI'nin de benzer bir etki yaratabileceğini, ancak bu etkinin tek bir anlık "overhang" (engel) aşılmasıyla değil, yeni bir bilişsel kapasite ve bu kapasiteyi dolduracak bir teknoloji ile gerçekleşebileceğini düşünüyor.
- Konuşmacı, büyümenin insanların fikirler üretmesi ve bu fikirleri uygulayarak değerli çıktı üretmesiyle gerçekleştiğini, ancak son 50 yıldır büyümenin ve nüfusun durgunlaştığını, ancak gelecekte hiper-eksponansiyel büyüme yaşanabileceğini belirtiyor.
- 1:32:34AI Modelleri ve Evrimsel Zeka
- Konuşmacı, Google'un Vo 3.1 modelini kullanarak önceki versiyonla karşılaştırmalar yaptığını ve yeni versiyonun daha tutarlı ve kaliteli sonuçlar verdiğini belirtiyor.
- Konuşmacı, AI firmalarının Vo 2 ile tamamen animasyonlu içerikler ürettiğini ve bu güncellemenin animasyonları daha kullanışlı hale getirdiğini söylüyor.
- Konuşmacı, Nicolas'ın kitaplarını ve evrimsel zeka konusundaki düşüncelerini incelediğini, evrimsel zekanın nasıl geliştiğini ve bunun şaşırtıcı olduğunu belirtiyor.
- 1:34:23Evrimsel Zekanın Gelişimi
- Konuşmacı, evrimsel zekanın gelişmesinin şaşırtıcı olduğunu, çünkü tüm gezegenlerdeki yaşam formlarının benzer olacağını ve zekanın nadir bir olay olacağını düşünüyor.
- Konuşmacı, bakterilerin 2 milyar yıl boyunca varlığını sürdürmesine rağmen zekanın gelişmediğini, ancak hayvanların sadece 100 milyon yıl varlığını sürdürmesine rağmen zekanın geliştiğini belirtiyor.
- Konuşmacı, hayvan zekasının gelişiminin, oksijenasyon olayının 600 milyon yıl önce gerçekleşmesiyle ilgili olduğunu ve bu olayın hayvan zekasının gelişimine yol açtığını düşünüyor.
- 1:36:43Evrimsel Zeka ve Farklı Hayvanların Zeka Seviyeleri
- Evrimsel zeka bireysel olarak birkaç kez farklı hayvanlarda (hominidler ve kuşlar gibi) ortaya çıkmıştır.
- Kuşlar (ravens gibi) çok akıllı olsa da beyin yapıları farklıdır ve bu, zekanın birkaç kez farklı zamanlarda ortaya çıktığını göstermektedir.
- Guern ve Carl Schulman'ın görüşüne göre, insanlar ve primatlar gibi hayvanlar için bir ölçeklenebilir algoritma ortaya çıkmış, ancak insanlar bu algoritmayı bir evrimsel nişte kullanmıştır.
- 1:37:53İnsanların Zeka Gelişimi ve Diğer Hayvanlarla Karşılaştırması
- Kuşlar gibi hayvanlar için beyin büyüklüğü önemli değildir çünkü bu hayvanlar için beyin büyüklüğü bir avantaj sağlamaz.
- İnsanlar için eller, araç kullanımı ve dış sindirim gibi özellikler zeka gelişimini teşvik etmiştir.
- Su ortamında yaşayan hayvanlar (örneğin dolfinler) için zeka gelişimi daha zordur çünkü su ortamında yapabilecekleri şeyler sınırlıdır.
- 1:38:38Zeka Gelişiminin Zorlukları ve Evrimsel Mekanizmalar
- Zeka gelişimi, bir durumun çok önemli olması ve bu durumun DNA'ya doğrudan aktarılamaması arasındaki bir denge gerektirir.
- Evrimsel süreçte, hayvanların çoğu önceden belirlenmiş algoritmalarla donatılmıştır, ancak insanlar test zamanında bu algoritmaları geliştirmek zorundadır.
- Quentin Pope'nin blog postuna göre, insanlar 60.000 yıl önce keskin bir zeka gelişimi yaşamış, ancak 50.000 yıl boyunca kültürel bir yapı oluşturarak bilgiyi nesiller boyunca aktarmışlardır.
- 1:40:36AI ve Kültür
- AI modelleri (özellikle LLM'ler) şu anda gerçek bir kültür sistemine sahip değildir.
- Kültür, bir LLM'in kendi kendine bir kitap yazması ve diğer LLM'lerin bu kitaptan ilham alması gibi bir süreçtir.
- AI dünyasında iki önemli fikir vardır: büyüyen bir bilgi repertuarı ve kendi kendine öğrenme (self-play) mekanizması.
- 1:42:50AI Modellerinin Gelişimi ve Zorlukları
- AI modelleri, özellikle küçük modeller, hala bilişsel olarak çok genç (kindergarten veya ilkokul öğrencisi seviyesinde) görünmektedir.
- Bu modeller mükemmel hafızaya sahip olabilir ve görünüşte başarılı olabilirler, ancak aslında ne yaptıklarını tam olarak anlamamaktadırlar.
- Tesla'nın self-driving teknolojisinin gelişimi, demo ile ürün arasında büyük bir fark olduğunu göstermektedir; demo kolay olsa da ürün geliştirmek çok daha zordur.
- 1:45:12Risk ve Gelişim Süreci
- Bazı alanlarda (örneğin self-driving) başarısızlık maliyeti çok yüksektir, bu da gelişim sürecini yavaşlatır.
- Yazılım mühendisliğinde de benzer bir durum vardır; özellikle güvenlik açısından önemli olan alanlarda.
- Gelişim süreci "dokuzlar" olarak adlandırılan, her biri belirli bir miktarda çalışma gerektiren adımlarla ilerler.
- 1:46:08Yazılım Geliştirme Süreci ve Demolar
- Yazılım geliştirme sürecinde her "dokuz" (iterasyon) aynı miktarda çalışma gerektirir ve bir demo sadece ilk "dokuz" iterasyonu gösterir.
- Konuşmacı, Tesla'da beş yıl çalışırken üç veya iki "dokuz" iterasyon geçtiğini belirtiyor.
- Demolar genellikle yetersiz kalır, etkileşim imkanı olsa bile gerçek ürün için daha fazla çalışma gereklidir.
- 1:47:03Güvenlik ve Yazılım Geliştirme
- Yazılım geliştirme, özellikle kritik güvenlik alanlarında, bir tür "dokuz" iterasyon sürecidir.
- Self-driving araçları gibi yüksek maliyetli başarısızlık riski olan alanlarda, yazılım geliştirme süreci daha uzun sürer.
- Yazılım geliştirme, sürekli kod üretimi gerektiren bir süreçtir ve bu nedenle başarısızlık riski daha yüksektir.
- 1:48:01Self-Driving ve AI Karşılaştırması
- Self-driving, genel yazılım mühendisliğine göre daha az yüzey alanına sahip bir dikeydir.
- Self-driving'de temel algı ve genelleştirme gibi temel temsil problemleri çözülürken, AI'de bu problemler daha kolay çözülebilir.
- AI'nin farklı alanlarda kullanılması, self-driving'in farklı şehirlerde kullanılması gibi bir süreçtir, ancak bu süreç daha kısa sürebilir.
- 1:49:01AI'nin Mevcut Durumu
- Konuşmacı, AI'nin tamamen genelleştirilmiş olduğunu düşünmediğini ve hala birçok boşluk olduğunu belirtiyor.
- Self-driving araçları henüz ekonomik değildir ve Waymo gibi şirketler bu araçları "gelecek için" geliştirmektedir.
- Self-driving araçlarında aslında teleoperasyon merkezleri bulunmakta ve insanlar hala bu sistemlerde rol oynamaktadır.
- 1:51:31Tesla ve Waymo Karşılaştırması
- Tesla, daha ölçeklenebilir bir yaklaşım benimsemiş ve bu strateji daha başarılı olabilir.
- Self-driving, 1980'lerden beri devam eden bir süreçtir ve henüz tamamlanmamıştır.
- AI'nin yayılması ve erken kullanım değeri, özellikle bilgi işlerinde, çok önemli bir sorundur.
- 1:53:29AI ve Fiziksel Dünyanın Karşılaştırması
- Bits (bilgisayardaki veriler) fiziksel dünyaya göre çok daha kolay değiştirilebilir ve yeniden düzenlenebilir.
- Bilgi işlerinde ölçeklenebilirlik için büyük miktarda hesaplama gereklidir ve bu da gecikme sorunlarına yol açabilir.
- AI'nin yayılması, toplum algısı, yasal düzenlemeler ve sigorta gibi alanlarda da yeni sorunlar doğuracaktır.
- 1:55:07Teknoloji Hakkında Görüşler
- Konuşmacı, teknoloji alanında bazı endişeleri olduğunu ancak genel olarak teknolojiye olumlu baktığını belirtiyor.
- Twitter'da gördüğü bazı içeriklerin anlamsız olduğunu ve bunların çoğunun finansman ve dikkat çekme amaçlı olduğunu düşünüyor.
- Cloud code ve OpenAI codecs gibi teknolojilerin bir yıl önce bile olmadığını ve gelecekte büyük bir talep olacağına inanıyor.
- 1:57:09Eğitim ve Teknoloji
- Konuşmacı, AI laboratuvarlarının deterministik olduğunu ve kendisinin bu alanda yardımcı olabileceğini düşünüyor.
- İnsanlığın AI'nin gelişmesiyle disempower edilmesinden endişe duyduğunu ve bu nedenle eğitim alanında daha fazla değer katabileceğini belirtiyor.
- Eureka'nın "Starfleet Akademisi" olarak adlandırdığı, elit bir teknik bilgi okulu oluşturmak istediğini açıklıyor.
- 1:59:17Eğitim ve AI
- Konuşmacı, AI'nin eğitim sistemini temelden değiştireceğini ve bu nedenle eğitim sisteminin yeniden yapılandırılması gerektiğini düşünüyor.
- Şu anda AI'nin temel soruları cevaplamak için yeterli olduğunu ancak daha karmaşık bir tutor deneyimi sunamadığını belirtiyor.
- İyi bir tutorun öğrencinin durumunu anlayıp, öğrencinin seviyesine uygun sorular sorabildiğini ve öğrenciyi doğru şekilde yönlendirebildiğini vurguluyor.
- 1:02:36Eureka'nın Eğitim Projeleri
- Konuşmacı, Eureka'nın ilk AI kursunu geliştirdiğini ve bu kursun "state of the art" bir eğitim kaynağı olacağını belirtiyor.
- "Nanochat" adlı bir proje geliştirdiğini ve bu proje, AI'yi öğrenmek için bir "ramp" olarak tasarlandığını açıklıyor.
- Eğitim sürecinin teknik bir problem olduğunu ve insanların bilgiye erişimini kolaylaştırmak için "eurekas per saniye" (anlama hızı) artırmak istediğini vurguluyor.
- 2:04:09AI ve Eğitimin Geleceği
- Eğitim sürecinde her zaman doğru malzeme ve doğru zorluk seviyesi bulunur, böylece ilerleme sağlanabilir.
- Kendi anlayışınızı test edebilme yeteneği, AI veya referans uygulamaları kullanarak doğru cevabı bulmanızı sağlar.
- AI'nin en büyük avantajı, kaynak materyaldeki AI kodlamasını açıklamaktır.
- 2:04:51AI'nin Eğitimdeki Rolü
- Eğitimciler, mevcut endüstri kapasitesini dikkate alarak AI'yi kullanmalıdır.
- AI henüz tam anlamıyla nano chat yazamaz, ancak nano chat bir ara nokta olarak faydalıdır.
- AI, eğitim materyallerini oluşturmak için yardımcı olabilir, ancak henüz yaratıcı içerik oluşturmak için yeterli değildir.
- 2:05:51Eğitim Sisteminin Geleceği
- Gelecekte, AI'nin en büyük engeli, kendi anlayışlarını AI'ye aktarabilen uzmanların bulunması olacaktır.
- Şu anda, AI ile birlikte çalışan fakültelerin devlet düzeyinde eğitim vermesi gerekecektir.
- Zamanla, bazı görevler AI tarafından otomatikleştirilebilir, ancak genel eğitim mimarisi için hala fakülte gereklidir.
- 2:07:33Starfleet Academy Vizyonu
- Starfleet Academy, fiziksel bir kurum ve dijital bir platform olarak iki farklı deneyim sunacaktır.
- Fiziksel kurum, öğrencilerin materyalleri tam anlamıyla anlamalarını sağlayacak bir deneyim sunacaktır.
- Dijital platform, daha erişilebilir olacak ancak daha az kaliteli bir deneyim sunacaktır.
- 2:08:18Eğitim ve Re-Eğitim
- Gelecekte hem yeni eğitim hem de mevcut bilgilerin yeniden öğrenilmesi gerekecektir.
- AI'nin yaygınlaşmasıyla işlerin değişeceği ve insanların AI'ye karşı kendilerini geliştirmeleri gerektiği düşünülmektedir.
- AI öncesi eğitim, para kazanmak için önemlidir, ancak AI sonrası eğitim daha eğlenceli olabilir.
- 2:09:19Eğitim ve Psikolojik Boyut
- İnsanlar, fiziksel güç gibi bazı yeteneklerin artık gerekli olmadığı halde, hala spor yaparlar çünkü eğlenceli ve sağlıklı olduğunu düşünürler.
- Eğitim, insanların psikolojik ve evrimsel ihtiyaçları doğrultusunda, eğlenceli ve çekici hale getirilebilir.
- Şu anda öğrenme zor olabilir, ancak AI ile öğrenme süreci kolaylaştırılabilir ve daha eğlenceli hale getirilebilir.
- 2:10:33İnsanlık ve AI
- Uzun vadede, insanlar AI'ye karşı kendilerini geliştirmek için daha fazla çaba gösterebilirler.
- İnsanlar, beş dil konuşabilmek gibi daha önce imkansız görünen şeyleri yapabilirler.
- Gym kültürü gibi, sistematik eğitim ve öğrenme, insanların yeteneklerini geliştirmesine yardımcı olabilir.
- 2:12:37İnsanlık ve Teknoloji
- Konuşmacı, insanlığın herkesin süper insan olması gerektiğini düşünmektedir.
- Şu anda, teknoloji ve kararlar sadece kendi labor ve bilişsel yeteneklerimizle etkilenmemektedir.
- Gelecekte, AI ile birlikte daha fazla bilgi edinerek ve anlayarak, teknoloji üzerinde daha etkili olabiliriz.
- 2:13:21Eğitim ve Öğrenme Hakkında Düşünceler
- Konuşmacı, uzun vadede bazı şeylerin değişeceğini ve belki de bir spor haline geleceğini düşünüyor.
- Powerlifting gibi, insanlar da bilgi edinmek için çaba gösteriyor ve mükemmel bir AI eğitmeni sayesinde çok ileri gidebilecekler.
- Konuşmacı, günümüzde bile insan zihninin ne kadar yapabileceğini henüz tam olarak keşfetmediğini düşünüyor.
- 2:14:09Öğrenme Deneyimi
- Konuşmacı, okulu sevdiğini ve her hafta farklı konuları öğrenmek istediğini belirtiyor.
- Öğrenmenin hem bir zevk hem de bir güç kaynağı olduğunu, üretkenlik sağladığını ifade ediyor.
- Online kursların henüz herkesin her şeyi öğrenmesini sağlamadığını, motivasyon açısından zorluklar olduğunu düşünüyor.
- 2:15:29Öğrenme Teknikleri
- Konuşmacı, fizik eğitiminin beyin için çok faydalı olduğunu ve erken okul eğitiminin sadece bilgi değil, beyin kapasitesini artırmayı amaçladığını savunuyor.
- Fizikte modeller oluşturmak, soyutlamalar yapmak ve sistemleri basitleştirmek gibi bilişsel becerilerin diğer alanlarda da geçerli olduğunu vurguluyor.
- "Scale" adlı bir kitabın, fizikçilerin biyoloji gibi alanlarda nasıl yaklaştığını anlattığını ve bu kitabın okunmasını öneriyor.
- 2:17:36Eğitim Stratejileri
- Konuşmacı, her şeyi basitleştirmeye çalıştığını ve bir sistemin en önemli bileşenlerini bulmaya çalıştığını belirtiyor.
- "Micrograd" adlı bir proje örneği vererek, 100 satır Python kodunun tüm neural network öğrenme mekanizmasını anlattığını ve bu kodun temel olduğunu açıklıyor.
- Eğitimde, karmaşık bilgileri basitleştirerek ve her bir parçanın neden önemli olduğunu göstererek motivasyonun artırıldığını vurguluyor.
- 2:20:15Etkili Eğitim Yöntemleri
- Konuşmacı, öğrencileri zorlamak için "nasıl çözersin?" gibi sorular sormayı tercih ettiğini belirtiyor.
- Öğrencilerin önce kendi çözümlerini bulmaları, sonra doğru cevabı öğrenmeleri sayesinde daha iyi anlayış elde ettiklerini düşünüyor.
- Uzmanların genellikle yeni başlayanlar için iyi bir eğitim verememesinin "bilgi ve uzmanlık kurusu" olduğunu ve bu durumun kendisini de etkilediğini ifade ediyor.
- 2:22:10Etkili Anlatım Teknikleri
- Bir kişinin bir konuyu nasıl anlatacağını, sadece bir öğle yemeği sırasında nasıl açıklayacağını dinlemek, sadece yazılı metinlerden daha anlaşılır ve bilimsel olabilir.
- İnsanlar genellikle konuları en soyut ve jargon dolu şekilde anlatmaya eğilimlidir, ancak bir kişiyle yüz yüze iletişim kurarken sadece temel fikri aktarmak yeterlidir.
- PhD araştırmalarında, bir konferans sonrası bir kişiyle konuşurken, o kişinin sadece üç cümleyle bir makalenin özünü anlatabilmesi, yazılı metni okumak yerine daha etkili bir öğrenme yöntemidir.
- 2:24:10Etkili Öğrenme Stratejileri
- Etkili öğrenme için hem derin öğrenme hem de ihtiyaç duyulan bilgileri öğrenme arasında bir denge kurmak önemlidir.
- Bir konuyu başkalarına anlatmak, o konuyu daha derinlemesine öğrenmeyi sağlar çünkü anlayamadığınız bir konuyu başkalarına anlatamazsınız.
- Bir konuyu başkalarına anlatmak, bilgiyi manipüle etmenizi ve ne hakkında konuştuğunuzu daha iyi anlamanızı sağlar.