详谈asp生成静态页方法
副标题[/!--empirenews.page--]
<div class="PostBody"> <p style="text-indent: 2em">一个简单的不用模板可以直接生成HTML静态页的方法. <p style="text-indent: 2em">如一个正常的index.asp动态页面, <p style="text-indent: 2em">新建一个文件?makeasp2html.asp <p style="text-indent: 2em"> ? ?
?
""?then?
? |
生成HTML方法主要步骤只有两个:
一、获取要生成的html文件的内容
二、将获取的html文件内容保存为html文件
我在这里主要说明的只是第一步:如何获取要生成的html文件的内容:
目前常用获取html文件的内容的方法有几下几种:
1、
CODE:?[Copy?to?clipboard]?str="
内容
标记>
"
str=str&"
内容
标记>
数据库读取内容....
标记>
....."这种方法与是在脚本内写要生成的html内容,不太方便预览生成页面的内容,无法可视化布局页面,更改html模板时会更加复杂。
用这种方法的人很多,但我感觉这种方法是最不方便的。
2、
制作单独的HTML模板页,动态的内容用特定的字符作为标记(如:有人用$title$标记为网页标题),用ADODB.Stream或者Scripting.FileSystemObject将其模板内容载入,然后再用替换方法把原先定好的标记替换为动态内容(如:Replace(载入的模板内容,"$title$",rs("title"?)?)?)。
3、
用XMLHTTP或serverXMLHTTP获取动态页所显示的HTML内容,
CODE:?[Copy?to?clipboard]?我常用的生成html文件的实例:
'weburl是要获取的动态页地址
'getHTTPPage(weburl)是获取动态页内容的函数
weburl="http://"&Request.ServerVariables("SERVER_NAME")&"/contact.asp?id="&rs("id")&""‘指定动态页地址
body=getHTTPPage(weburl)'用函数取到动态页地址的内容此方法最大的好处就是不用费力气专门去写静态的模板页面,只是将原来就有的动态页面转换为HTML静态页面,但生成速度不是太快。
我常用的生成HTML的方法就是第3种:用XMLHTTP获取动态页生成的HTML内容,再用ADODB.Stream或者Scripting.FileSystemObject保存成html文件。
第二步是生成文件的方法:
ASP里常用的有用ADODB.Stream生成文件和Scripting.FileSystemObject生成文件两种
1、
Scripting.FileSystemObject生成文件方法:
CODE:?[Copy?to?clipboard]?Set?fso?=?CreateObject("Scripting.FileSystemObject")
File=Server.MapPath("要生成文件路径和文件名.htm")
Set?txt=fso.OpenTextFile(File,8,True)??
data1="文件内容"用WriteLine方法生成文件
txt.WriteLine?data1
data2="文件内容"'用Write方法生成文件
txt.Write?data2
txt.Close
txt.fso2、
ADODB.Stream生成文件方法:
CODE:?[Copy?to?clipboard]?Dim?objAdoStream
set?objAdoStream?=?Server.createObject("ADODB.Stream")
objAdoStream.Type?=?1
objAdoStream.Open()
objAdoStream.Write("文件内容")
objAdoStream.SaveToFile?要生成文件路径和文件名.htm,2
[next]?
objAdoStream.Close()再说一下我对HTML防采集却不防搜索引擎蜘蛛的一些经验:?
?
我开发过几个采集程序,也研究过很多采集程序代码,所以对采集程序的原理还算是稍微有些了解。
先说一下采集原理:
采集程序的主要步骤如下:
一、获取被采集的页面的内容
二、从获取代码中提取所有用的数据
一、获取被采集的页面的内容
我目前所掌握的ASP常用获取被采集的页面的内容方法:
1、用serverXMLHTTP组件获取数据
CODE:?[Copy?to?clipboard]?Function?GetBody(weburl)?
????'创建对象
????Dim?ObjXMLHTTP
????Set?ObjXMLHTTP=Server.CreateObject("MSXML2.serverXMLHTTP")
????'请求文件,以异步形式
????ObjXMLHTTP.Open?"GET",weburl,False
????ObjXMLHTTP.send
????While?ObjXMLHTTP.readyState?<>?4
????????ObjXMLHTTP.waitForResponse?1000
????Wend
????'得到结果
?????GetBody=ObjXMLHTTP.responseBody
????'释放对象
?????Set?ObjXMLHTTP=Nothing
End?Function
调用方法:
GetBody(文件的URLf地址)?2、或XMLHTTP组件获取数据
CODE:?[Copy?to?clipboard]?Function?GetBody(weburl)?
????'创建对象
????Set?Retrieval?=?CreateObject("Microsoft.XMLHTTP")?
????With?Retrieval?
?????.Open?"Get",?weburl,?False,?"",?""?
?????.Send?
?????GetBody?=?.ResponseBody
?????End?With?
????'释放对象
????Set?Retrieval?=?Nothing?
End?Function
调用方法:
GetBody(文件的URLf地址)?这样获取的数据内容还需要进行编码转换才可以使用
CODE:?[Copy?to?clipboard]?Function?BytesToBstr(body,Cset)
????????dim?objstream
????????set?objstream?=?Server.CreateObject("adodb.stream")
????????objstream.Type?=?1
????????objstream.Mode?=3
????????objstream.Open
????????objstream.Write?body
????????objstream.Position?=?0
????????objstream.Type?=?2
????????objstream.Charset?=?Cset
????????BytesToBstr?=?objstream.ReadText?
????????objstream.Close
????????set?objstream?=?nothing
End?Function
调用方法:BytesToBstr(要转换的数据,编码)'编码常用为GB2312和UTF-8二、从获取代码中提取所有用的数据
目前我掌握的方法有:
1、用ASP内置的MID函数截取需要的数据
CODE:?[Copy?to?clipboard]?Function?body(wstr,start,over)
start=Newstring(wstr,start)
'设置需要处理的数据的唯一的开始标记
over=Newstring(wstr,over)
'和start相对应的就是需要处理的数据的唯一的结束标记
body=mid(wstr,over-start)
'设置显示页面的范围
End?Function
调用方法:body(被采集的页面的内容,开始标记,结束标记)2、用正则获取需要的数据
CODE:?[Copy?to?clipboard]?Function?body(wstr,over)
Set?xiaoqi?=?New?Regexp'设置配置对象
xiaoqi.IgnoreCase?=?True'忽略大小写
xiaoqi.Global?=?True'设置为全文搜索
xiaoqi.Pattern?=??"”&start&“.+?”&over&“"'正则表达式?
Set?Matches?=xiaoqi.Execute(wstr)'开始执行配置
[next]?
set??xiaoqi=nothing?
body=""
For?Each?Match?in?Matches
body=body&Match.Value?'循环匹配
Next?
?
End?Function
调用方法:body(被采集的页面的内容,结束标记)采集程序祥细思路:
1、取得网站的分页列表页的每页地址
目前绝大部分动态网站的分页地址都有规则,如:
动态页
第一页:index.asp?page=1
第二页:index.asp?page=2
第三页:index.asp?page=3
.....
静态页
第一页:page_1.htm
第二页:page_2.htm
第三页:page3.htm
.....
取得网站的分页列表页的每页地址,只需要用变量替代每页地址的变化的字符即可如:page.htm
2、获取被采集网站的分页列表页内容
3、从分页列表代码中提取被采集的内容页面的URL连接地址
绝大部分分页页面里的内容页连接也有固定规则,如:
连接1?
连接2?
连接3?
用以下代码就可以获得一个URL连接集合
CODE:?[Copy?to?clipboard]?Set?xiaoqi?=?New?Regexp
xiaoqi.IgnoreCase?=?True
xiaoqi.Global?=?True
xiaoqi.Pattern?=??””“.+?”““
Set?Matches?=xiaoqi.Execute(页面列表内容)
set??xiaoqi=nothing?
url=""
For?Each?Match?in?Matches
url=url&Match.Value?
Next4、取得被采集的内容页面内容,根据”提取标记“从被采集的内容页面分别截取要取得的数据
因为是动态生成的页面,大多数内容页面内都有相同的html标记,我们可以根据这些有规则的标记提取需要的各个部分的内容。
如:
每个页面都有网页标题,用我上面写的MID截取函数就可以获得之间的值,也可以用正则表达式来获得。
例:body("","")
介绍完采集器的祥细原理后,就开始说一下防采集的策略。
目前防采集的方法有很多种,先介绍一下常见防采集策略方法和它的弊端及采集对策:
一、判断一个IP在一定时间内对本站页面的访问次数,如果明显超过了正常人浏览速度,就拒绝此IP访问
弊端:
1、此方法只适用于动态页面,如:aspjspphp等...静态页面无法判断某个IP一定时间访问本站页面的次数
2、此方法会严重影响搜索引擎蜘蛛对其收录,因为搜索引擎蜘蛛收录时,浏览速度都会比较快而且是多线程。此方法也会拒绝搜索引擎蜘蛛收录站内文件
采集对策:只能放慢采集速度,或者不采
建议:做个搜索引擎蜘蛛的IP库,只允许搜索引擎蜘蛛快速浏览站内内容。搜索引擎蜘蛛的IP库的收集,也不太容易,一个搜索引擎蜘蛛,也不一定只有一个固定的IP地址。
评论:此方法对防采集比较有效,但却会影响搜索引擎对其收录。
二、用javascript加密内容页面
弊端:此方法适用于静态页面,但会严重影响搜索引擎对其收录情况,搜索引擎收到到的内容,也都是加密后的内容
采集对策:建议不采,如非要采,就把解密码的JS脚本也采下来。
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。
三、把内容页面里的特定标记替换为”特定标记+隐藏版权文字“
弊端:此方法弊端不大,仅仅会增加一点点的页面文件大小,但容易反采集
采集对策:把采集来的含有隐藏版权文字内容的版权文字替掉,或替换成自己的版权。
建议:目前没有好的改良建议
评论:自己感觉实用价值不大,就算是加上随机的隐藏文字,也等于画蛇添足。
四、只允许用户登陆后才可以浏览
弊端:此方法会严重影响搜索引擎蜘蛛对其收录
采集对策:目前落伍已经有人发了对策文章?,具体对策就看这个吧《ASP小偷程序如何利用XMLHTTP实现表单的提交以及cookies或session的发送》
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。
五、用javascript、vbscript脚本做分页
弊端:影响搜索引擎对其收录
采集对策:分析javascript、vbscript脚本,找出其分页规则,自己做个对应此站的分页集合页即可。
[next]
建议:目前没有好的改良建议
评论:感觉懂点脚本语言的人都能找出其分页规则?
?
六、只允许通过本站页面连接查看,如:Request.ServerVariables("HTTP_REFERER")
弊端:影响搜索引擎对其收录
采集对策:不知道能不能模拟网页来源。。。。目前我没有对应此方法的采集对策
建议:目前没有好的改良建议
评论:建议指望搜索引擎带流量的站长不要使用此方法。不过此方法防一般的采集程序,还是有点效果的。
从以上可以看出,目前常用的防采集方法,要么会对搜索引擎收录有较大影响,要么防采集效果不好,起不到防采集的效果。那么,还有没有一种有效防采集,而又不影响搜索引擎收录的方法呢?那就请继续往下看吧,精彩的地方马上呈献给大家。
下面就是我的防采集策略,防采集而又不防搜索引擎
从前面的我讲的采集原理大家可以看出,绝大多数采集程序都是靠分析规则来进行采集的,如分析分页文件名规则、分析页面代码规则。
一、分页文件名规则防采集对策
大部分采集器都是靠分析分页文件名规则,进行批量、多页采集的。如果别人找不出你的分页文件的文件名规则,那么别人就无法对你的网站进行批量多页采集。
实现方法:
我认为用MD5加密分页文件名是一个比较好的方法,说到这里,有人会说,你用MD5加密分页文件名,别人根据此规则也可以模拟你的加密规则得到你的分页文件名。
我要指出的是我们加密分页文件名时,不要只加密文件名变化的部分
如果I代表分页的页码,那么我们不要这样加密?
page_name=Md5(I,16)&".htm"
最好给要加密的页码上再跟进一个或多个字符,如:page_name=Md5(I&"任意一个或几个字母",16)&".htm"
因为MD5是无法反解密的,别人看到的会页字母是MD5加密后的结果,所以加人也无法知道你在?I?后面跟进的字母是什么,除非他用暴力破解MD5,不过不太现实。
二、页面代码规则防采集对策
如果说我们的内容页面无代码规则,那么别人就无法从你的代码中提取他们所需要的一条条内容。
所以我们要的这一步做到防采集,就要使代码无规则。
实现方法:
使对方需要提取的标记随机化
1、定制多个网页模板,每个网页模板里的重要HTML标记不同,呈现页面内容时,随机选取网页模板,有的页面用CSS+DIV布局,有的页面用table布局,此方法是麻烦了点,一个内容页面,要多做几个模板页面,不过防采集本身就是一件很烦琐的事情,多做一个模板,能起到防采集的作用,对很多人来说,都是值得的。
2、如果嫌上面的方法太麻烦,把网页里的重要HTML标记随机化,也可以。
做的网页模板越多,html代码越是随机化,对方分析起内容代码时,就越麻烦,对方针对你的网站专门写采集策略时,难度就更大,在这个时候,绝大部分人,都会知难而退,因为这此人就是因为懒,才会采集别人网站数据嘛~~~再说一下,目前大部分人都是拿别人开发的采集程序去采集数据,自己开发采集程序去采集数据的人毕竟是少数。
还有些简单的思路提供给大家:
1、把对数据采集者重要,而对搜索引擎不重要的内容用客户端脚本显示
2、把一页数据,分为N个页面显示,也是加大采集难度的方法
3、用更深层的连接,因为目前大部分采集程序只能采集到网站内容的前3层,如果内容所在的连接层更深,也可以避免被采集。不过这样可能会给客户造成浏览上的不便。
如:
大多网站都是?首页----内容索引分页----内容页
如果改成:
首页----内容索引分页----内容页入口----内容页
注:内容页入口最好能加上自动转入内容页的代码
CODE:?[Copy?to?clipboard]?<meta&NBSP;HTTP-EQUIV="REFRESH"&NBSP;CONTENT="6;URL=内容页">其实,只要做好防采集的第一步(加密分页文件名规则),防采集的效果就已经不错了,还是建议两条反采集方法同时使用,给采集者增加采集难度,使得他们知难页退。
(编辑:青岛站长网)
【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!
- iPhone X电池容量多大 iPhone X电池容量是多少
- 【创意餐厅设计排行榜】餐饮全案设计公司推荐排名-权威排行
- 华为申请新商标;云米发布2019年第三季度财报;第四届中国家
- 基站数超4.6万,深圳市宣布成为首个5G独立组网全覆盖城市
- iPhone 8发布会什么时候开始 iPhone 8发布会什么时候举行
- 在环保“去粗取精”的洗牌变革中,洞悉2020家居业3大变化
- 后国标时代的电动自行车 续航成大问题
- iPhone 7升级iOS 11.2.2会卡吗 iPhone 7 Plus升级iOS 11.2.
- 洗碗机销售超预期背后,博西家电以智能化、高端化引领行业发
- 无法在Web服务器上启动调试。未将项目配置为进行调试