我的第二十八篇博客---seleinum

sll-csdn sll-csdn     2022-12-13     431

关键词:

from selenium import webdriver

#初始化驱动
driver=webdriver.Chrome()
#请求页面
driver.get(url=‘https://www.baidu.com‘)
#找到对应标签,发送文本
driver.find_element_by_xpath("//*[@id=‘kw‘]").send_keys(‘2019‘)

#找到按钮,点击click
driver.find_element_by_xpath("//*[@id=‘su‘]").click()
#获取页面内容
content=driver.page_source
print(content)
# #解析页面


# from selenium import webdriver
# driver=webdriver.Chrome()
# driver.get(url=‘https://www.baidu.com‘)
# driver.find_element_by_xpath("//*[@id=‘kw‘]").send_keys(‘2019‘)
# driver.find_element_by_xpath("//*[@id=‘su‘]").click()
# driver.implicitly_wait(10)
# driver.find_element_by_xpath(‘//*[@class="t c-gap-bottom-small"]/a‘).click()
# content=driver.page_source
# print(content)


# from selenium import webdriver
# driver=webdriver.Chrome()
# driver.get(url=‘https://www.baidu.com‘)
# driver.find_element_by_xpath(‘//*[@id="kw"]‘).send_keys(‘2019‘)
# driver.find_element_by_xpath(‘//*[@id="su"]‘).click()
# driver.implicitly_wait(10)
# listContent=[]
# for x in range(1,10):
# content=driver.find_element_by_xpath("//*[@id=%d]/h3/a"%x).text
content=driver.find_element_by_xpath("//*[@id=%d]/h3/a"%x).get_attribute(‘href‘) #获取链接
# listContent.append(content)
# print(listContent)

# from selenium import webdriver
#
# driver=webdriver.Chrome()
# driver.get(url=‘https://movie.douban.com/‘)
# # listTitle=driver.find_elements_by_xpath("//div[@class=‘slide-page‘]/a/p")
# listTitle=driver.find_elements_by_xpath(‘//*[@id="content"]/div/div[2]/div[4]/div[3]/div/div[1]/div/div[2]/a/p‘)
# # listTitle2=[]
# # for x in listTitle:
# # listTitle2.append(x.text)
# # print(‘‘.join(listTitle2))
# for x in listTitle:
# print(x.text)


# from selenium import webdriver
# driver=webdriver.Chrome()
# driver.get(url=‘http://www.ruanyifeng.com/survivor/collapse/index.html‘)
# listTitle=driver.find_elements_by_xpath(‘/html/body/section/div/div[1]/div[2]/nav/div/aside/ul/li/ul/li/a/span[2]‘)
# for x in listTitle:
# print(x.text)

# from selenium import webdriver
# driver=webdriver.Chrome()
# driver.get(url=‘https://www.baidu.com‘)

 


# from selenium import webdriver
# driver=webdriver.Chrome()
# driver.get(url=‘http://www.ruanyifeng.com/survivor/collapse/index.html‘)
# #隐士等待
# driver.implicitly_wait(10)
# #点击事件
# driver.find_element_by_xpath(‘/html/body/section/div/div[1]/div[1]/article/ul/li[1]/a‘).click()
# #切换窗口
# windows=driver.window_handles
# driver.switch_to.window(windows[1])
# #获取详细页面里面的内容
# content=driver.find_element_by_xpath(‘/html/body/section/div/div[1]/div[1]/article/p[16]‘)
# print(content.text)
# #关闭当前窗口
# driver.close()

 

# from selenium import webdriver
# driver=webdriver.Chrome()
# driver.get(url=‘http://www.ruanyifeng.com/survivor/collapse/index.html‘)
# driver.implicitly_wait(10)
# driver.find_element_by_xpath(‘/html/body/section/div/div[1]/div[1]/article/ul/li[1]/a‘).click()
# windows=driver.window_handles
# driver.switch_to.window(windows[1])
# content=driver.find_element_by_xpath(‘/html/body/section/div/div[1]/div[1]/article/p[14]‘)
# print(content.text)
# driver.close()

 


# from selenium import webdriver
# driver=webdriver.Chrome()
# driver.get(url=‘http://www.ruanyifeng.com/survivor/collapse/index.html‘)
# driver.implicitly_wait(10)
# listTitle=driver.find_elements_by_xpath(‘/html/body/section/div/div[1]/div[1]/article//ul/li/a‘)
# # print(len(listTitle))
# for x in range(len(listTitle)):
# driver.find_element_by_xpath(‘/html/body/section/div/div[1]/div[1]/article//ul/li[%d]/a‘%(x+1)).click()
# windows=driver.window_handles
# driver.switch_to.window(windows[1])
# content=driver.find_element_by_xpath(‘/html/body/section/div/div[1]/div[1]/article/p[3]‘)
# print(content.text)
# driver.close()
# driver.switch_to.window(windows[0])
#
# #退出
# driver.quit()

 


import re
from selenium import webdriver
driver=webdriver.Chrome()
driver.get(url=‘http://www.ruanyifeng.com/survivor/collapse/index.html‘)
driver.implicitly_wait(10)
listTitle=driver.find_elements_by_xpath(‘/html/body/section/div/div[1]/div[1]/article//ul/li/a‘)
def removeTags(content):
content=re.findall("(?<=[(])[^()]+\.[^()]+(?=[)])",content)
return content

for x in range(len(listTitle)):
driver.find_element_by_xpath(‘/html/body/section/div/div[1]/div[1]/article//ul/li[%d]/a‘%(x+1)).click()
windows=driver.window_handles
driver.switch_to.window(windows[1])
content=re.findall(‘<article class="content is-size-4-desktop">(.*)</article>‘,driver.page_source,re.S)
print(removeTags(‘‘.join(content)))
driver.close()
driver.switch_to.window(windows[0])

开始写游戏---第二十八篇

开始写游戏---第二十八篇  今天:    1、添加:物品奖励组件    2、添加:物品信息弹框组件    3、碰到BUG,现在被卡住了    上图:    1、添加:物品奖励组件          效果:   ... 查看详情

stm32f429第二十八篇之adc

文章目录前言框图1.对外引脚引脚描述输入电压与AD值关系2.输入通道通道与GPIO规则转换与注入转换转换顺序3.触发源控制开关外部触发源4.时钟与时间时钟转化时间5.转换模式5.1单次转换模式5.2连续转换模式5.3扫描模式5.4非连续... 查看详情

第二十八篇vue(代码片段)

component动态组件就是动态变化的组件,和动态样式一样,通过用户的操作来确定是什么类型的组件。动态样式是绑定:style,动态组件则是绑定:is在vue中,实现Tab切换主要有三种方式:使用动态组件,使用vue-router路由,使用第三... 查看详情

小刘同学的第九十八篇博文

  第二节课也听到一半了,建好了另外的两张表requst和relation,用图展示一下它们之间的关系吧。    还是用sequelize生成的,贴一下代码。    request是加好友请求用到的,两个belongTo,是为了表示是谁加的谁,这两个... 查看详情

我的第二十篇博客---mysql基本命令

explainselectnamefromstudentwherename=‘小明‘;查看查询了多少行才找到alterdatabase数据库名charactersetutf8; 将数据库的编码改为utf8createdatabase数据库名charset=utf8;  创建数据库指定编码为utf8当一个表数据全部删除时,id设有主键... 查看详情

我的第二十二篇博客---vue

Vue.js基本概念:首先通过将vue.js作为一个js库来使用,来学习vue的一些基本概念,我们下载了vue.js后,需要在页面上通过script标签引入vue.js。开发中可以使用开发版本vue.js。产品上线要换成vue.min.js。<scripttype="text/javascript"src="..... 查看详情

我的第二十九篇博客---正则进阶

re.match()从头找一个re.search()找一个re.findall()找所有返回一个列表,没有就是空列表re.findall(‘\d‘,‘chuan1zhi2‘)结果为[‘1‘,‘2‘]re.sub()替换re.sub(‘\d‘,‘_‘,‘chuan1zhi2‘)结果为[‘chuan_zhi_‘]re.compile(编译)返回一个模型p,具有和... 查看详情

我的第二十一篇博客---mysql强化及应用于python

使用python读取数据库: frompymysqlimportconnectconn=connect(host=‘localhost‘,port=3306,database=‘数据库名‘,user=‘root‘,password=‘密码‘,charset=‘utf8‘)#获取cursor对象cur=conn.cursor()#执行sql语句sql="select*fromstu"cur 查看详情

我的第二十三篇博客---爬虫简介

网络爬虫(又被称为网页蜘蛛,网络机器人)就是模拟客户端(主要指浏览器)发送网络请求,接收请求响应,按照一定的规则,自动地抓取互联网信息的程序。原则上,只要是客户端(主要指浏览器)能做的事情,爬虫都能够... 查看详情

我的第二十七篇博客---beautifulsoup与csv操作方法

BeautifulSoup和lxml一样,也是一个HTML/XML的解析器,主要的功能也是如何解析和提取HTML/XML数据lxml只会局部遍历,而BeautifulSoup是基于HTMLDOM的,会载入整个文档,解析整个DOM树,因此时间和内存开销都会大很多,所以性能要低于lxml/B... 查看详情

小刘同学的第四十八篇博文

  自己的状态出问题了,而且家里事情也比较多吧。  今天要承认确实有时间本可以拿出来编程的,但是没有编。  立一个flag吧,明天一定要有内容的更新。 查看详情

stm32f429第二十八篇之adc

文章目录前言框图1.对外引脚引脚描述输入电压与AD值关系2.输入通道通道与GPIO规则转换与注入转换转换顺序3.触发源控制开关外部触发源4.时钟与时间时钟转化时间5.转换模式5.1单次转换模式5.2连续转换模式5.3扫描模式5.4非连续... 查看详情

stm32f429第二十八篇之adc

文章目录前言框图1.对外引脚引脚描述输入电压与AD值关系2.输入通道通道与GPIO规则转换与注入转换转换顺序3.触发源控制开关外部触发源4.时钟与时间时钟转化时间5.转换模式5.1单次转换模式5.2连续转换模式5.3扫描模式5.4非连续... 查看详情

android探索之旅(第二十八篇)手把手一步步教你集成阿里热修复sophix

1.第一步创建项目通过AndroidStudio创建工程大家都会,就不用我说了吧,还在用Eclipse的小伙伴收拾收拾……哈哈2.androidstudio集成方式gradle远程仓库依赖,打开项目找到app的build.gradle文件,添加如下配置:添加maven仓库... 查看详情

小刘同学的第五十八篇博文

  今天又没有认真更新,可能是因为要回南昌耽误了。。。  其实自己也明白,再多的理由都是借口,都是给自己偷懒的理由……这是文件格式ajax.html里面的代码不是很懂,callback(data)的意思,昨天看老师的视频也是卡在这... 查看详情

走入计算机的第二十八天(面向对象的程序设计)

 一 什么是面向对象的程序设计及为什么要有它面向过程的程序设计的核心是过程(流水线式思维),过程即解决问题的步骤,面向过程的设计就好比精心设计好一条流水线,考虑周全什么时候处理什么东西。优点是:极... 查看详情

小刘同学的第一百五十八篇日记

  今天一位老铁分享的,有点感想,但是也都……一言难尽吧  今天都在忙家里的事情,也挺烦的  答辩成绩还一直没出……  据说明天会出,也不知道  不过已经买好回老家的票了,10号还有个事业单位考试。  1... 查看详情

每日算法&面试题,大厂特训二十八天——第二十八天(数组)

目录标题导读算法特训二十八天面试题点击直接资料领取导读肥友们为了更好的去帮助新同学适应算法和面试题,最近我们开始进行专项突击一步一步来。上一期我们完成了动态规划二十一天现在我们进行下一项对各类算法进行... 查看详情