您现在的位置是:首页 >学无止境 >分享Python采集88个PHP电子商务源码,总有一款适合您网站首页学无止境
分享Python采集88个PHP电子商务源码,总有一款适合您
分享Python采集88个PHP电子商务源码,总有一款适合您
Python采集的88个PHP电子商务源码下载链接:https://pan.baidu.com/s/1MUuzEu3acWmIVwc0TUulwA?pwd=bzxy
提取码:bzxy
昱杰订单管理系统(ThinkPHP版)V2.2
小草淘宝客 V5.0
Ecshop微信商城接口 V2.1
WSTMall V1.0
PHPSHE B2C商城系统 V1.4 UTF8 Build20150515
昱杰订单管理系统 V8.7
DBShop电子商务网店系统 V0.9.2 RC 0510
开源电子商务系统IWebShop V3.2.15050500
Demila数字内容交易系统 V1.0
ZipMarket数字内容素材交易网站 V2.0
昂酷拍卖系统 V1.2
Php个人版发卡平台 V1.4 免费版
乐尚团购 V1.0 20140711
小生淘宝客无须Api调用打折系统 V4.1.1
浩天淘宝客程序(无域名限制) V1.20140625T
关键词淘宝客程序 V1.0
MallBuilder 多用户商城管理系统 V5.8.1.1
B2Bbuilder B2B网站管理系统 V7.0.1 正式版
B2Bbuilder网站管理系统 英文版 V7.0.1 正式版
ShopBuilder网店系统 V4.1
import os
import shutil
import requests
from bs4 import BeautifulSoup
from framework.base.BaseFrame import BaseFrame
from sprider.access.SpriderAccess import SpriderAccess
from sprider.plugin.SpriderTools import SpriderTools
from sprider.plugin.UserAgent import UserAgent
class CNSourceCoder:
base_url = "http://www.downcode.com"
max_pager = 10 # 每页的数量 影响再次采集的起始位置.
word_image_count = 5 # word插入图片数量 同时也是明细采集图片和描述的数量
page_end_number = 0
word_content_list = []
haved_sprider_count = 0 # 已经采集的数量
sprider_detail_index = 0 # 明细方法采集的数量 累加
Wemall微信商城系统 V1.0
CuuMall免费网上商城系统 V2.3
夏日Php电子商务系统 0.2
小蜜蜂9块9包邮淘宝客系统 V2.1
炫彩电子商务平台 V1.5.5 Bulid0522
云购系统 V3.0
友邻B2B系统(PHPB2B) V5.0.2 GBK 本地服务器版
友邻B2B系统(PHPB2B) V5.0.2 UTF-8 本地服务器版
友邻B2B系统(PHPB2B) V5.0.2 Utf-8 远程服务器版
Phpapp威客系统 V2.6 Sp2 GBK Bulid0407
Phpapp威客系统 V2.6 Sp2 Utf8 Bulid0407
SuperCms在线订餐系统 V1.0 Beta
快捷网上订餐系统 V3.3
口福科技网上订餐系统平台版 V1.9
多奥淘宝客程序(含5套模版) V7.0
B2Bbuilder网站管理系统 英文版 V7.0 正式版
浩天淘宝客免费系统程序
天天团购系统 V3.6.0 Build 20140111 简体GBK
天天团购系统 V3.6.0 Build 20140111 简体UTF8
天猫多店宝(淘点金版) V2.82
红头船B2C商城系统RHSB2C V1.0 Beta2
玩具礼品商城 V1.0
云购开源系统 UTF8 V2.9.3
Ecshop好乐买2013宽屏模板 V2.73 UTF8
货源网右侧浮动插件 V5.0
飞天侠淘宝客秒杀系统-聚划算源码 V4.3 免费版
Destoon B2B网站 V5.0 Build20131120 GBK
Destoon B2B网站 V5.0 Build20131120 UTF8
Appkan-Ec V1.0
海豚返利系统(LDP) V1.1
幸福女淘宝客 V2.2
TP-COUPON 免费开源的PHP优惠券系统 V1.21
MT推广易联盟营销系统 V4.1
股票T+0交易系统
# 查找指定文件夹下所有相同名称的文件
def search_file(dirPath, fileName):
dirs = os.listdir(dirPath) # 查找该层文件夹下所有的文件及文件夹,返回列表
for currentFile in dirs: # 遍历列表
absPath = dirPath + '/' + currentFile
if os.path.isdir(absPath): # 如果是目录则递归,继续查找该目录下的文件
search_file(absPath, fileName)
elif currentFile == fileName:
print(absPath) # 文件存在,则打印该文件的绝对路径
os.remove(absPath)
TP-COUPON 导购系统 免费版 V1.1
DESTOON一起发货源模板 V1.0
拼图秀社会化分享系统 V3.3.1 淘客版
IWebShop V2.4.13090400
DXE-Shop网店系统 V1.0
PIMS支付接口订单管理系统(单页网站等) V4.2.1
QQ空间导购类应用源码 V1.0.1
精仿淘客泡泡淘宝客源码 V1.0
拼图秀兴趣图谱分享系统-社交版 V3.0
淘宝客最新源码(易淘淘专业版) V7.1
Dede仿最品聚全站模板 V1.0 UTF-8
2013最新多多淘宝客V8.1(20130707)破解版 V8.0
Php订单系统可以整合支付宝接口 V1.0
齐博B2B电子商务系统V1.0模板 红色模板 V1.0
DESTOON5.0企业模板 白色模板 V5.0
DESTOON5.0企业模板 深蓝色模板 V5.0
DESTOON4.0企业模板 绿色模板 V4.0
天猫多店宝 V2.1
135topCMS!点餐系统 V3.3
拍拍客 免费易推广Api系统 V1.1
Difeye-敏捷的轻量级PHP框架 V1.1.5
ShopEx 网上商店系统 V4.8.5.78660
快捷PHP订餐系统 3.1 单店版
凡客系统 V1
网上订餐系统(多店版) V3.2
网上订餐系统 V3.1
小生淘宝客打折程序 V1.4.0
微普外卖点餐系统 V3.0 Build20130415
快捷PHP订餐系统 V3.1
方舟订单管理系统 V1.0
def sprider(self,sprider_name,sprider_count,start_number,
pager_number,sprider_type,is_show_browse,root_path,
first_column_name,second_column_name,is_record_db):
"""
http://www.downcode.com/sort/j_1_2_1.shtml
:param sprider_name:
:return:
"""
self.first_folder_name=sprider_type.upper()
self.base_path=root_path
self.first_column_name = first_column_name
self.second_column_name = second_column_name
self.sprider_start_count=start_number
self.is_record_db=is_record_db
BaseFrame().debug("开始采集[源码下载站]" + self.first_folder_name + "源码...")
BaseFrame().right("本次采集参数:sprider_count(采集数量):" + str(sprider_count) + "")
BaseFrame().right("本次采集参数:sprider_name(采集名称):" + sprider_name + "")
sprider_url = self.base_url + "/{0}/{1}_1.shtml".format(self.first_column_name, self.second_column_name)# 根据栏目构建URL
BaseFrame().debug("本次采集参数:sprider_url:" + sprider_url)
self.second_folder_name = str(sprider_count) + "个" + sprider_name # 二级目录也是wordTitle
self.merchant = int(self.sprider_start_count) // int(self.max_pager) + 1 # 起始页码用于效率采集
self.file_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name
BaseFrame().right("本次采集参数:file_path=" + self.file_path + "")
# 浏览器的下载路径
self.down_path = self.base_path + os.sep + self.first_folder_name+ os.sep + self.second_folder_name+ "\Temp\"
BaseFrame().right("本次采集参数:down_path=" + self.down_path + "")
# First/PPT/88个动态PPT模板/动态PPT模板
self.save_path = self.base_path + os.sep + self.first_folder_name + os.sep + self.second_folder_name + os.sep + sprider_name
BaseFrame().right("本次采集参数:save_path=" + self.save_path + "")
if os.path.exists(self.down_path) is True:
shutil.rmtree(self.down_path)
if os.path.exists(self.down_path) is False:
os.makedirs(self.down_path)
if os.path.exists(self.save_path) is True:
shutil.rmtree(self.save_path)
if os.path.exists(self.save_path) is False:
os.makedirs(self.save_path)
response = requests.get(sprider_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
#print(soup)
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
page_end_number = 1
page_end_url = ""
page_end_title = soup.find("a", attrs={"title": '最后页'})
page_end_url = page_end_title.get("href")
if page_end_url is None or page_end_url == "":
page_end_number = 1
else:
page_end_number = (page_end_url.split(".shtml")[0].split("_")[3])
self.page_count = self.merchant
while self.page_count <= int(page_end_number): # 翻完停止
try:
if self.page_count == 1:
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
else:
if int(self.haved_sprider_count) == int(sprider_count):
BaseFrame().debug("sprider采集到达数量采集停止...")
BaseFrame().debug("开始写文章...")
SpriderTools.builder_word(self.second_folder_name,
self.word_content_list,
self.file_path,
self.word_image_count,
self.first_folder_name)
SpriderTools.copy_file(self.word_content_list,
self.save_path,
self.second_folder_name,
self.file_path)
SpriderTools.gen_passandtxt(self.second_folder_name, self.word_content_list, self.file_path)
BaseFrame().debug("文件编写完毕,请到对应的磁盘查看word文件和下载文件!")
break
next_url = self.base_url + "/{0}/{1}_{2}.shtml".format(self.first_column_name,
self.second_column_name,
self.page_count)
response = requests.get(next_url, timeout=10, headers=UserAgent().get_random_header(self.base_url))
response.encoding = 'gb2312'
soup = BeautifulSoup(response.text, "html5lib")
element_list = soup.find_all('div', attrs={"class": 'j_text_sort_a'})
self.sprider_detail(element_list, page_end_number,sprider_count)
pass
self.page_count = self.page_count + 1 # 页码增加1
except Exception as e:
BaseFrame().error("sprider()执行过程出现错误:" + str(e))
佳弗O2O系统 V1.0 乐活版
佳弗O2O系统 V2.0 普通版
多多淘宝客返利网 V8.0
微信淘宝客新年版 V2
好了就写到这吧~你有时间常去我家看看,我在这里谢谢你啦~~~