分享74个ASP整站程序源码,总有一款适合您

分享74个ASP整站程序源码,总有一款适合您分享 74 个 ASP 整站程序源码 总有一款适合您 74 个 ASP 整站程序源码下载链接 https pan baidu com s 12WvL3Z7LhmC 提取码 g64j Python 采集代码下载链接 采集代码 zip 蓝奏云 我的博客地址 亚丁号 知识付费平台 支付后可见

大家好,我是讯享网,很高兴认识大家。

Python采集代码下载链接:采集代码.zip - 蓝奏云

我的博客地址:亚丁号-知识付费平台 支付后可见 扫码付费可见


讯享网

import os import shutil import requests from bs4 import BeautifulSoup from framework.base.BaseFrame import BaseFrame from sprider.access.SpriderAccess import SpriderAccess from sprider.plugin.SpriderTools import SpriderTools from sprider.plugin.UserAgent import UserAgent class CNSourceCoder: base_url = "http://www.downcode.com" max_pager = 10 # 每页的数量 影响再次采集的起始位置. word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量 page_end_number = 0 word_content_list = [] haved_sprider_count = 0 # 已经采集的数量 sprider_detail_index = 0 # 明细方法采集的数量 累加

讯享网

 

仿当下软件园的游戏黑客站源码

手机主题整站源代码

开心否非主流整站-新云4.0内核

711最新版ASP网站在线咨询插件2009

月儿猫猫ASP生成HTML全站静态客户体验专业版V1.0

小计天空超清爽个人主页 V6

浦东订水送水网站系统

学校课件软件下载文章浏览网站源码

网人广告联盟系统 V2.0 Bulid 090226

Den123分类信息网 商业版

仿百度百科 V2.6 ASP标准版

Diggcms内容管理系统 V3.2

我爱看小说网站程序V3.19

中国标准企业网站管理系统

通用公司企业管理系统

黑酷DIV+CSS风格爱伊儿资源站FOR 新云3.1

三峡卫生健康网整站程序(带数据)

教师123课件ASP网站

711企业网站管理程序V2009

捣蛋网源码

月儿猫猫ASP生成HTML全站静态-自动同步更新BLOG程序V2.0Final

土豆丫头整站源码

月光使者FLASH个人主页

NETSOZ网址收藏夹+通讯录+记事本 NZFRS V3.0

百科知识搜索系统 V1.0 BETA

北极星教育资源站

蓝木物流货运信息系统V2.0

点云网络传媒V2.0

骇客基地CMS V

中国家教网V1.0源程序(整站源码)

2009多风格新春节日祝福网站

鹏程网络V2.7高级完整版

2009新年祝福许愿墙-E站通

KesionCMS V5.5 Bulid 090106 UTF-8

北京国际快递公司

武汉玻璃钢网站完整无限制整站

智可蓝网管理系统2.0

那年下雪文化艺术传媒

泥鳅时尚网络FLASH整站源码

成都二手网

521yy智力测试(自带2052条数据)

Hsort校园二手信息 创业系统 V2.0 修正版

三丰物流信息网

星梦奇缘文学网源码下载(完整免费版)

易可查小资网YIKCA CMS 1.0

人在旅途博客(怀旧版)

YIKCA CMS

千聚网络

深山行者个人网站程序 V0.1

梦想不死个人主页 V2009

SmartWeb1.0.2企业智能建站系统-那什软件

翎风个人主页管理系统 V1.0

酷睿股票网站系统V2008.11.20精简版

60度CMS V1.0 Build 081031

彩虹网程序源码

尚志学校网站整站程序

真爱空间中小学校网站整站程序 V2.6

木犁内容管理系统WoodPlow CMS V1.0 Beta2 Sql 修正版

网名站(新云3.1内核)

大头友情自助链整站程序

酷睿股票网站系统全功能版V13.0901

郑州华康医院原程序

国内十佳分类信息网整站程序

泉州市安顺交通设施有限公司全站程序

冠龙科技多风格企业网站管理系统

深圳学车网整站

旋涡小筑 V3.0

太古软件公司整站

PWeb文章类建站系统 V3.0

NetPb网上党支部系统 V1.01

医学检验8门户网站

脑筋急转弯(含数据) V1.0

LPLY CMS 爱儿工作室 V2.0 Bulid 080914

信运08版网店系统

讯享网
    def sprider(self,sprider_name,sprider_count,start_number,
                pager_number,sprider_type,is_show_browse,root_path,
                first_column_name,second_column_name,is_record_db):
        """
        http://www.downcode.com/sort/j_1_2_1.shtml
        :param sprider_name:
        :return:
        """
        self.first_folder_name=sprider_type.upper()
        self.base_path=root_path
        self.first_column_name = first_column_name
        self.second_column_name = second_column_name
        self.sprider_start_count=start_number
        self.is_record_db=is_record_db
        BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
        BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
        BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
        sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
        BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)

        self.second_folder_name = str(sprider_count) + "个" + sprider_name  # 二级目录也是wordTitle
        self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1  # 起始页码用于效率采集
        self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
        BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
        # 浏览器的下载路径
        self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\\Temp\\"
        BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
        # First/PPT/88个动态PPT模板/动态PPT模板
        self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
        BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")


        if os.path.exists(self.down_path) is True:
            shutil.rmtree(self.down_path)
        if os.path.exists(self.down_path) is False:
            os.makedirs(self.down_path)

        if os.path.exists(self.save_path) is True:
            shutil.rmtree(self.save_path)
        if os.path.exists(self.save_path) is False:
            os.makedirs(self.save_path)
        response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
        response.encoding = 'gb2312'
        soup = BeautifulSoup(response.text, "html5lib")
        #print(soup)
        element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
        page_end_number = 1
        page_end_url = ""
        page_end_title = soup.find("a", attrs={"title": '最后页'})
        page_end_url = page_end_title.get("href")
        if page_end_url is None or page_end_url == "":
            page_end_number = 1
        else:
            page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])

        self.page_count = self.merchant

        while self.page_count <= int(page_end_number):  # 翻完停止
            try:
                if self.page_count == 1:
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                else:
                    if int(self.haved_sprider_count) == int(sprider_count):
                        BaseFrame().debug("sprider采集到达数量采集停止...")
                        BaseFrame().debug("开始写文章...")
                        SpriderTools.builder_word(self.second_folder_name,
                                                  self.word_content_list,
                                                  self.file_path,
                                                  self.word_image_count,
                                                  self.first_folder_name)
                        SpriderTools.copy_file(self.word_content_list,
                                               self.save_path,
                                               self.second_folder_name,
                                               self.file_path)
                        SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
                        BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
                        break
                    next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
                                                                           self.second_column_name,
                                                                           self.page_count)

                    response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
                    response.encoding = 'gb2312'
                    soup = BeautifulSoup(response.text, "html5lib")
                    element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
                    self.sprider_detail(element_list, page_end_number,sprider_count)
                    pass
                self.page_count = self.page_count + 1  # 页码增加1
            except Exception as e:
                BaseFrame().error("sprider()执行过程出现错误:" + str(e))

最后送大家一首诗:

山高路远坑深,
大军纵横驰奔,
谁敢横刀立马?
惟有点赞加关注大军。

小讯
上一篇 2025-02-19 17:45
下一篇 2025-01-14 07:37

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/44835.html