
我正试图抓住zillow网站的内容.
Ex- https://www.zillow.com/homedetails/689-Luis-Munoz-Marin-Blvd-APT-508-Jersey-City-NJ-07310/108625724_zpid/
问题是我无法抓住价格和税收历史的内容.
我认为它们是JavaScript元素加载页面加载时因此尝试使用selenium但我仍然无法得到它们.
以下就是我的尝试.
码
phistory = soup.find("div",{"ID": "hdp-price-history"})print phistoryHTML
这是最外面的元素,但里面没有任何元素.还尝试了soup.find_all(“table”,class_ =“zsg-table yui3-toggle-content-minimize”),但没有产生任何元素.最佳答案您可以尝试等到所需的< table>生成并变得可见:
from selenium.webdriver.common.by import Byfrom selenium.webdriver.support.ui import webdriverwait as waitfrom selenium.webdriver.support import expected_conditions as ECdriver.get("https://www.zillow.com/homedetails/689-Luis-Munoz-Marin-Blvd-APT-508-Jersey-City-NJ-07310/108625724_zpID/")table = wait(driver,10).until(EC.visibility_of_element_located((By.XPATH,'//div[@ID="hdp-price-history"]//table')))print(table.text)输出:
DATE EVENT PRICE $/SQFT SOURCE05/03/17 Listed for sale 0,000+159% 4 KELLER WILliAM...06/15/11 Sold 0,000-38.3% 6 Public Record10/14/05 Sold 0,000 4 Public Record您也可以在不使用BeautifulSoup的情况下解析它,例如
print(table.find_element_by_xpath('.//td[text()="Listed for sale"]/following::span').text)输出:
0,000要么
print(table.find_element_by_xpath('.//td[text()="Sold"]/following::span').text)输出:
0,000 总结 以上是内存溢出为你收集整理的python – 无法从zillow网站上删除一些元素全部内容,希望文章能够帮你解决python – 无法从zillow网站上删除一些元素所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)