找回密码
  注册[Register]
楼主: Tuteng2020

[其他] BMW车载HiFi至尊女声天碟

  [复制链接]
发表于 2021-3-12 09:27 | 显示全部楼层
禁止求评分、诱导评分、互刷评分、互刷悬赏值,违规者封号处理。
禁止发布推广、邀请码、邀请链接、二维码或者有利益相关的任何推广行为。
所有非原创软件请发布在【精品软件区】,发帖必须按照本版块版规格式发帖。

GANXIE
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复

使用道具 举报

发表于 2021-3-14 23:48 | 显示全部楼层
感谢大神分享啊
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复 有用 没用

使用道具 举报

发表于 2021-3-15 01:15 | 显示全部楼层
小手一抖,金币拿走
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复 有用 没用

使用道具 举报

发表于 2021-3-15 01:28 | 显示全部楼层
646927165
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复

使用道具 举报

发表于 2021-3-18 14:25 | 显示全部楼层
666666
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复

使用道具 举报

发表于 2021-3-18 15:16 | 显示全部楼层
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复

使用道具 举报

发表于 2021-3-21 20:56 | 显示全部楼层
6666666666666
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复 有用 没用

使用道具 举报

发表于 2021-3-25 20:08 | 显示全部楼层
很多老歌
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复

使用道具 举报

发表于 2021-3-29 06:35 来自手机 | 显示全部楼层
6666666
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复

使用道具 举报

发表于 2021-3-29 13:10 | 显示全部楼层
import requests
from bs4 import BeautifulSoup
  
  
def getUrl():
    headers = {
        "referer": "https://www.baidu.com/link?url=GgeDs1AzZQg7jAVgRWaaQVemNzUYNHFpN-PiFmUIyUHeaMQeoPb14_8g1oL7GmBggm70mm4e2EkM5F7lmQMUVq&wd=&eqid=fdcd73c000068a5900000004605ac987",
        "upgrade-insecure-requests": "1",
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"
    }
    url = 'https://www.tupianzj.com/meinv/mm/nkmv/'
  
    urllist = []
    H = requests.get(url, headers=headers).text
  
    soup = BeautifulSoup(H, 'lxml').select('ul.d1.ico3>li>a')
  
    ullist = [i.get('href') for i in soup]
    for i in ullist:
        if '/meinv/' in i:
            urllist.append(i)
    return urllist
  
  
def getpage(imglist):
    for l in imglist:
        headers = {
            "referer": "https://www.baidu.com/link?url=GgeDs1AzZQg7jAVgRWaaQVemNzUYNHFpN-PiFmUIyUHeaMQeoPb14_8g1oL7GmBggm70mm4e2EkM5F7lmQMUVq&wd=&eqid=fdcd73c000068a5900000004605ac987",
            "upgrade-insecure-requests": "1",
            "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"
        }
        R = requests.get(f"https://www.tupianzj.com{l}", headers=headers).content.decode('gbk')
        imgsoup = BeautifulSoup(R, 'lxml').select('.pages > ul:nth-child(1) > li:nth-last-child(2)>a')[0].text
        for i in range(1, int(imgsoup) + 1):
            if i == 1:
                imgurl = BeautifulSoup(R, 'lxml').select('#bigpicimg')[0].get('src')
                tittle = BeautifulSoup(R, 'lxml').select('div.list_con:nth-child(3) > h1:nth-child(1)')[0].text
                with open(tittle + '.' + imgurl.split('.')[-1], 'wb') as f:
                    f.write(requests.get(imgurl, headers=headers).content)
                    f.close()
                print(tittle + "           保存成功!")
            else:
                imgurl = 'https://www.tupianzj.com' + l.replace('.html', '') + f'_{i}.html'
                req=requests.get(imgurl,headers=headers).content.decode('gbk')
                u=BeautifulSoup(req, 'lxml').select('#bigpicimg')[0].get('src')
                tittle = BeautifulSoup(req, 'lxml').select('div.list_con:nth-child(3) > h1:nth-child(1)')[0].text
                with open(tittle + '.' + u.split('.')[-1], 'wb') as f:
                    f.write(requests.get(u, headers=headers).content)
                    f.close()
                print(tittle+"           保存成功!")
  
  
if __name__ == '__main__':
    listur = getUrl()
    getpage(listur)import requests
from bs4 import BeautifulSoup
  
  
def getUrl():
    headers = {
        "referer": "https://www.baidu.com/link?url=GgeDs1AzZQg7jAVgRWaaQVemNzUYNHFpN-PiFmUIyUHeaMQeoPb14_8g1oL7GmBggm70mm4e2EkM5F7lmQMUVq&wd=&eqid=fdcd73c000068a5900000004605ac987",
        "upgrade-insecure-requests": "1",
        "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"
    }
    url = 'https://www.tupianzj.com/meinv/mm/nkmv/'
  
    urllist = []
    H = requests.get(url, headers=headers).text
  
    soup = BeautifulSoup(H, 'lxml').select('ul.d1.ico3>li>a')
  
    ullist = [i.get('href') for i in soup]
    for i in ullist:
        if '/meinv/' in i:
            urllist.append(i)
    return urllist
  
  
def getpage(imglist):
    for l in imglist:
        headers = {
            "referer": "https://www.baidu.com/link?url=GgeDs1AzZQg7jAVgRWaaQVemNzUYNHFpN-PiFmUIyUHeaMQeoPb14_8g1oL7GmBggm70mm4e2EkM5F7lmQMUVq&wd=&eqid=fdcd73c000068a5900000004605ac987",
            "upgrade-insecure-requests": "1",
            "user-agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.81 Safari/537.36 SE 2.X MetaSr 1.0"
        }
        R = requests.get(f"https://www.tupianzj.com{l}", headers=headers).content.decode('gbk')
        imgsoup = BeautifulSoup(R, 'lxml').select('.pages > ul:nth-child(1) > li:nth-last-child(2)>a')[0].text
        for i in range(1, int(imgsoup) + 1):
            if i == 1:
                imgurl = BeautifulSoup(R, 'lxml').select('#bigpicimg')[0].get('src')
                tittle = BeautifulSoup(R, 'lxml').select('div.list_con:nth-child(3) > h1:nth-child(1)')[0].text
                with open(tittle + '.' + imgurl.split('.')[-1], 'wb') as f:
                    f.write(requests.get(imgurl, headers=headers).content)
                    f.close()
                print(tittle + "           保存成功!")
            else:
                imgurl = 'https://www.tupianzj.com' + l.replace('.html', '') + f'_{i}.html'
                req=requests.get(imgurl,headers=headers).content.decode('gbk')
                u=BeautifulSoup(req, 'lxml').select('#bigpicimg')[0].get('src')
                tittle = BeautifulSoup(req, 'lxml').select('div.list_con:nth-child(3) > h1:nth-child(1)')[0].text
                with open(tittle + '.' + u.split('.')[-1], 'wb') as f:
                    f.write(requests.get(u, headers=headers).content)
                    f.close()
                print(tittle+"           保存成功!")
  
  
if __name__ == '__main__':
    listur = getUrl()
    getpage(listur)
如何回报帮助你解决问题的坛友,一个好办法就是给对方加【热心值】和【牛币】,加分不会扣除自己的积分,做一个热心并受欢迎的人!
回复 有用 没用

使用道具 举报

您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

RSS订阅|手机版|小黑屋|广告投放|大牛论坛

GMT+8, 2024-6-2 11:50 , Processed in 0.033095 second(s), 17 queries .

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表