Yazeka
Arama sonuçlarına göre oluşturuldu
Python ile veri çekmek için aşağıdaki adımlar izlenebilir:
- Gerekli kütüphanelerin kurulumu 3. Python ile web scraping yapmak için
requests
veBeautifulSoup
gibi kütüphaneler gereklidir 3. Bu kütüphaneler, terminal veya komut satırında aşağıdaki komutla kurulabilir 3:
pip install requests beautifulsoup4
- Web sayfasının çekilmesi 3.
requests
kütüphanesi kullanılarak bir HTTP isteği gönderilir ve sayfanın HTML içeriği alınır 3.
import requests url = ‘https://example.com’ # Web sayfasının URL’si response = requests.get(url) # Sayfa içeriğini yazdır print(response.text)
- BeautifulSoup ile HTML’in ayrıştırılması 3.
BeautifulSoup
kütüphanesi, HTML veya XML verilerini ayrıştırmak için kullanılır 3.
from bs4 import BeautifulSoup # HTML içeriği BeautifulSoup ile ayrıştırılır soup = BeautifulSoup(response.text, ‘html.parser’) # Sayfanın başlığı yazdırılır print(soup.title)
- Verilerin çekilmesi 3. Web sayfasından belirli verileri çekmek için HTML etiketlerine ve sınıflarına bakılır 3.
# Belirli bir etiketi seçme headings = soup.find_all('h1') # Her bir başlığı yazdır for heading in headings: print(heading.text) # Belirli bir sınıf adına göre seçim yapma items = soup.find_all('div', class_='item-class') for item in items: print(item.text)
- Sayfa navigasyonu 3. Web scraping yaparken, bazen bir sayfada yer alan bağlantılara tıklayıp o sayfaya yönlenmek gerekebilir 3.
# Tüm bağlantıları (a etiketlerini) bulma links = soup.find_all('a') # Her bağlantının href (URL) değerini yazdırma for link in links: href = link.get(‘href’) print(href)
- Verilerin düzenlenmesi ve saklanması 3. Web scraping sonrasında veriler düzenlenebilir veya CSV, JSON veya veritabanı gibi formatlarda saklanabilir 3.
import csv data = [[‘Başlık’, ‘Link’], [‘Python Web
5 kaynaktan alınan bilgiyle göre: