DNA图谱 / 问答 / 问答详情

下载网页源代码

2023-07-31 09:08:37
共3条回复
bikbok

网站的动态源代码,比如asp,php,jsp是不可能通过访问页面就能下载的。网上现在唯一可以的就是批量抓取这个网站的静态页面,有许多网页抓取工具,百度一下就好。比如仿站小工具啊,webzip之类的,都可以很快的抓取网页静态,但是json形式很难抓取到。

如果一定需要动态代码,除非入侵服务器,当然也可以通过判断对方网站是不是网上可以下载到的开源程序,如果是的话,就简单了。

黑桃花

为了节省时间和精力的web开发,业务所有者和网页设计机构选择现成的网站模板,你可以在网页模板程序下载各种成品的模板,响应式布局,可视化编辑,带完整后台。

下载网页模板源代码首先要选择适合自己使用的,其次最好是HTML5标准,然后外观美丽大方。

陶小凡

我建议你直接去www. downzz. com 中国新一代站长综合门户网站长源码下载

相关推荐

webzip是什么软件

WebZIP 是著名的离线浏览器软件,在它的帮助下你能够完整下载网站的内容,或者你也可以选择自行设置下载的层数、文件类型、网页与媒体文件的定位以及网址过滤器,以便按己所需地获取网站内容。你下载到本地硬盘中的网站内容将仍保持原本的 HTML 格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。现在使用 WebZIP 中新的 FAR 插件工具,你可以把下载的内容制作成 HTML-帮助文件(.chm)。你也可以把抓取的网站内容压缩为 ZIP 文件。 用 WebZIP 进行离线浏览还可以节省大量的时间,因为从一个链接转到另一个链接的速度要比在线时快得多。此外,WebZIP 最大可以同时下载 16 个网页或图片,并支持断点续传与使用代理服务器,所以你能够在较短的时间内获得大量的信息。总之,WebZIP 是用于发布、参考与离线使用网站素材的优秀工具。
2023-07-31 07:31:251

WebZIP是什么?

WebZip是一款集下载、存储、在线浏览及离线浏览诸多功能为一体的共享软件。它的主要功能有: 1.下载一个完整的站点并把它压缩为一个Zip文件。这种一边压缩一边下载的工作方式是WebZIP的特色。由于下载过程中采用压缩方式,所以它下载速度特别出色,这一点是其它离线浏览工具所无法比拟的。 2.有选择地下载并压缩Web站点中所需要的内容。这使我们能够只下载自己感兴趣的内容,把不需要的给过滤掉。 3.WebZIP支持多链接下载,即一个站点可以有多条链接通道来同时进行下载,这样进一步提高了下载速度。WebZIP缺省是以10条链接下载一个站点,你最大可设置为16条。 4.离线浏览已下载的Web站点。这是离线浏览工具最基本的功能了,如果连这也没有就是笑话了。不过,这里特别要提出的一点是WebZIP有内置的浏览器,这样你就可直接使用内置的浏览器来浏览了。 5.智能更新。WebZIP允许让你只下载新的或变动过的内容,而不用将所有站点信息重新再全部下载,从而快速更新站点内容。 6.智能恢复、继续。WebZIP允许你在下载过程中随时中断,以后你可以从断点处继续下载,这很类似文件传输中的断点续传功能。 7.通过设置,你可以安排WebZIP在某个时间里自动启动下载站点进程。
2023-07-31 07:31:331

离线浏览器的WebZIP使用指南

WebZIP只是种类繁多的离线浏览器的一种。由于其功能较为完善,所以比较普及。你可以在很多工具光盘上找到它的踪影。WebZIP的安装非常简单,一路按下Agree、Next就可搞定。准备好了吗?Follow me !如果你执行的是默认安装,启动“开始-程序-WebZIP-WinZIP”即可进入WebZIP2.61的启动画面。上面将提醒你,在没有注册的情况下,你可以试用30天,右边的五个按钮依次是:Continue (继续) 、Exit (退出) 、Register (注册) 、Purchase (购买) 、Help(帮助)。按下Continue进入主界面,你可以看到WebZIP 的界面非常花哨,具有典型的浏览器特色。第一次进入,建议你等待一分钟,看看会出现什么情况?它将自动连接到WebZIP的老家。如果单击地址栏左边的房子图标,你将看到熟悉的IE默认门户页面,这就是webzip的一大特色。它的内置浏览器与IE完全兼容。并可脱离其它浏览器单独工作,不信,输入个熟悉的网址看看结果吧。好了,我们要开始尝试下载网站了,按下Tasks(任务)按钮,将出现WebZIP的任务管理核心。菜单栏主菜单与其他软件没什么区别,不过其中的View(查看)栏和Task(任务)栏值得我们研究。在接下来的两个输入栏中,第一个是任务配置栏,按向下箭头我们可以看到WebZIP为我们提供了7种任务配置方式,具体如何配置,我们将稍后介绍。第二栏是地址栏,接受需浏览或下载的网页地址,这一区有八个圆形图标,左边三个含义分别是:新任务建立、搜寻、下载目录查看。右边四个含义分别是:设置默认模式为压缩模式、设置默认模式为建立内部模拟网模式、将下载任务添加到选定压缩包中、帮助。GO图标的意义当然是任务开始。任务管理核心部分的左边,WebZIP已为你准备好了预设类目,方便你对任务的分类管理;右边就是我们将要经常使用的主操作区了。我们有多种方式建立任务,可以直接按下F7,可以在File菜单中选择“New-Download Task”,可以在地址栏上直接输入任务网址,随后按GO键等等。无论使用哪种方法,都将出现任务建立对话框。在Task Name中为我们即将进行的下载任务取个名字,比如说:“硬件知识”,在Category(类目栏)中选择Education(教育),Profile中选择默认的Custom,在Starting URL中输入网址,按GO将任务添加到任务栏,再按Run,过半个小时,就可以将网站的内容全部拉到你的硬盘上。有的读者可能要问:如果我只想了解关于CPU的内容,难道非要我把整个网站全部下载回来吗?不错,离线浏览器虽然好,可毕竟会占用相当的网络资源。将想要的东西拉回来,将不想要的东西拒之门外,才能真正体现离线浏览器的优势,达到省时省钱的目的。别担心,WebZIP2.61想到了这一点,可以为您解决这一问题。精确制导,决不浪费任务建立对话框左边为用户设立了8个设置选项,依次是:开始地址设定,保存地址设定,文件类型设定,跟随连接设定,跟随连接高级设定,网址过滤设定,连接转换设定,预定时间设定,下面我们将对其一一解释。首先要提出的是,在任务管理核心栏中,选择view菜单的profiles Editor项将得到一个更为直观的任务设置对话框,强力推荐大家熟练掌握WinZIP后使用该对话框。现在,我们首先进行了解。前两项starting address和save to不用介绍,大家一定熟悉,不会告诉我你没装过游戏吧。不过须要指出的是,WebZIP提供了两种储存方式,一种是不进行压缩的内部虚拟网络存储,一种是网站压缩包存储。如果你的硬盘不是小得可怜,如果你并不打算将网站资料长期保存,建议你采取第一种方式。第三项 Filetypes较为重要,你将选择在这次下载中所需要的文件类型,如果没有特殊要求,建议大家选择HTML和Images,而不要选择软件默认的ALL。如果你只需要文字,干脆Images都可以不选,这样可以大大地节省money。第四项 Followed Li-nks是请你选择WebZIP下载网页内容时限定的最大层次,以及在网站和目录中要限制的连接。就我个人习惯而言,在这层次这一项中我不会做过多限制,必竟,我所需要的资料不一定都会在某一层之上。下面两栏连接定位应该按软件默认设置,也就是定位于包含当前目录和当前地址的连接,否则天晓得会不会把全世界服务器的资料给你搜寻一遍!第五栏Follwoed Links (Adv)的意思是是否让WebZIP强行分析脚本代码并跟随连接,鉴于WebZIP不能解释Javasc-ript或VBScr-ipt,这项我们一般不选,即不进行强行分析。第六栏 VRL Filters可能是大家最感兴趣的一栏:网址按关键字设定,左边一栏是设定下载的连接必须包含某些关键字,点ADD(添加)出现菜单,依次询问是对哪种连接作限制,选项有所有连接、网页连接、源件连接,我个人一般选所有连接,注意可以添加多个单词或短语,但要用逗号分隔开。右边一栏则是要求下载的页面不能包含哪些内容,要求与左栏一样。现在我们单击ADD,为所有连接输入CPU,则只下载包含“CPU”三个字符的连接。第七栏 Link Conversion连接变换,一般使用软件默认即可,这样可使你下载的资料在离线阅读时感觉与在线一样方便。第八栏 Schedule 时间表请你指定该任务的开始运行时间。可选现在运行、指定时间运行和不进行时间安排,一般我们选第三项,不安排。好了,全部设定完毕,现在按OK退出任务设定,一个任务就绪了。点击 Run就可以看到任务开始运行,飞翔鸟的CPU将飞到你的硬盘!主界面将以多种方式向你报告下载工作的进行状况,你可以按Connections 查看各连接的下载状况,一般WebZIP默认10个连接同时下载,你可以移动左边的滑标进行调整。右边的滑标是选择倾向于优先下载网页还是倾向于优先下载其它媒体文件。如果你觉得速度不令人满意,只需在任务栏中将叉改成箭头或单击Stop即可。不要觉得可惜,WebZIP支持“断点续传”,这次没下载完下次继续!
2023-07-31 07:31:401

webzip7.0 如何使用

上网塞车对于许多网虫来说是一件相当痛苦的事,特别是对modem的使用者来说,那何不将网站中想要看的内容给搬回家慢慢看呢?Webzip就是这么一套快速且简单易用的离线浏览软件。 Webzip是一个高效能的离线浏览软件,可以将您所喜爱的网站整个搬回到您的硬盘中,这样子您就再也不用因为网路塞车而一再的痛苦等待了。Webzip之所以快速的秘密就在於它一次可以同时下载多个文件,还可以边压缩边下载,这样的下载方式不仅充份的使用到您的网路连线频宽,再加上下载的同时并没有同步显示在浏览器中,所以自然速度就飙起来罗。 WebZIP软件档案: 软件名称:WebZIP Version 3.80 软件类别:离线浏览 文件大小:745K 下载文件:如:webzip380.exe 系统要求:Windows 95/98/NT/2000 Internet Explorer 4.0以上的版本 WebZip是一款集下载、存储、在线浏览及离线浏览诸多功能为一体的共享软件。它的主要功能有: 1.下载一个完整的站点并把它压缩为一个Zip文件。这种一边压缩一边下载的工作方式是WebZIP的特色。由于下载过程中采用压缩方式,所以它下载速度特别出色,这一点是其它离线浏览工具所无法比拟的。 2.有选择地下载并压缩Web站点中所需要的内容。这使我们能够只下载自己感兴趣的内容,把不需要的给过滤掉。 3.WebZIP支持多链接下载,即一个站点可以有多条链接通道来同时进行下载,这样进一步提高了下载速度。WebZIP缺省是以10条链接下载一个站点,你最大可设置为16条。 4.离线浏览已下载的Web站点。这是离线浏览工具最基本的功能了,如果连这也没有就是笑话了。不过,这里特别要提出的一点是WebZIP有内置的浏览器,这样你就可直接使用内置的浏览器来浏览了。 5.智能更新。WebZIP允许让你只下载新的或变动过的内容,而不用将所有站点信息重新再全部下载,从而快速更新站点内容。 6.智能恢复、继续。WebZIP允许你在下载过程中随时中断,以后你可以从断点处继续下载,这很类似文件传输中的断点续传功能。 7.通过设置,你可以安排WebZIP在某个时间里自动启动下载站点进程。 下面就详细地介绍一下它的基本使用方法。 一、WebZIP安装和启动 WebZIP的安装十分方便,下载后的文件为exe格式,直接执行就可开始安装,整个安装过程完全为傻瓜式,你只须点击Yes或OK按钮即可顺利完成。 安装完成后,你在开始/程序中选择WebZIP,就可启动。首次运行,基本上无须作什么设置,你就可以直接使用。 二、WebZIP之初级使用篇 对于大多数用户来说,一般只需要使用一些最基本、最常用的功能,只要可以把网站拉回来就可以了,在本篇中,就先为您介绍WebZIP的初级使用。以下载一个网站为例: (1)设定下载站点 图一 WebZIP的主界面如图一所示。在下载网站之前我们要先设定下载的目标站点。我们有多种方式建立任务,最方便的就是在WebZIP的快捷工具栏中点击“New Task”,在正文框中会显示出下载任务列表,这时只要在“Download URLs”栏中填写你要下载的站点,比如我们想下载“http://www.pconline.com.cn”。 (2)具体设置 图二 填好目标网站后,点击“Task Properties”将会出现下载任务设置对话框,如图二。在Task Name中为我们即将进行的下载任务取个名字,比如说:“pconline”,在Category(类目栏)中选择默认的Custom。选择“设置项目”列表栏中的“Download Method”项目,选择下载网站的类型,可以通过“Profile”下拉菜单选择要下载文件的类型,分别为: Selected Page(All)--下载所选择的页,包括所有的文本、图像、声音、Java、 ActiveX等信息,资源局限于站点; Selected Page(Text,Images)--仅下载当前站点中所选择页的文本与图像信息; Selected Directory(all)--下载当前站点中所选择目录的所有信息,包括子目录 ; Selected Directory(Text,Images)--仅下载当前站点中所选择目录的文本与图像 信息,包括子目录。 Selected Site(All)--下载当前站点中所有信息; Selected Site(Text,Images)--仅下载当前站点的所有文本和图像信息。 其中Selected Directory(Text,Images)最常用。 接着可以对下载任务进行一些更详细的设置。包括: FileType(文件格式)):Webzip会让你设定下载的文件类型。默认项是所有文件。可供选择的文件类型包括了HTML、Image、Vido、Java等文件类型。如果没有特殊要求,建议大家选择HTML和Images,而不要选择软件默认的ALL。如果你认为Winzip所列的文件类型不全,还可单击Add功能键来添加; Followed Links(设置链接限制)可以选择WebZIP下载网页内容时限定的最大层次,以及在网站和目录中要限制的连接。 URL Filters(链接过滤)可以对网址按关键字设定,上面一栏是设定下载的连接必须包含某些关键字,点ADD(添加)出现菜单,依次询问是对哪种连接作限制,选项有所有连接、网页连接、源件连接。下面一栏则是要求下载的页面不能包含哪些内容,要求与左栏一样。现在我们单击ADD,为所有连接输入asp,则只下载包含“asp”三个字符的连接。这对我们进行有目的的下载很有帮助。 Follwoed Links (Adv)(高级选项设置)让我们决定是否让WebZIP强行分析脚本代码并跟随连接,鉴于WebZIP不能解释Java script或VB Script,这项我们一般不选。 Link Conversion(连接变换)一般使用软件默认即可,这样可使你下载的资料在离线阅读时感觉与在线一样方便。 Password标签项提供了需要使用授权口令登录登录下载服务器时的用户名和登录口令设置,根据需要设置即可。 Schedule(时间表)请你指定该任务的开始运行时间。可选现在运行、指定时间运行和不进行时间安排,一般我们选第三项,不安排。 (3)下载 好了,全部设定完毕,现在就可以开始下载了。方法是按下任务栏中的“Run Task ”按钮,任务就开始运行了。如果你觉得速度不令人满意,只需在任务栏中将叉改成箭头或单击Stop即可,因为WebZIP支持“断点续传”,所以这次没下载完的下次还可以继续!下载的时候我们按滚动条上Connection按钮查看一下状况,如图三所示。 图三 在中间一栏中可以看到当前建立的连接,默认是同时连接10个文件进行下载,可以通过Connections滑标进行调整。靠右的“Download Priority”滑标是选择倾向于优先下载网页还是倾向于优先下载其它文件资源。在左下方的状态栏中,显示了总共连接的时间、已经下载的文件量、下载速度等等,并有传输、暂停的快捷工具按钮。 下载完毕后,WebZIP会自动弹出提示,并将下载的内容打包成为一个ZIP文件,这样是不是很体贴呢,也不用占很大的硬盘空间了。 (4)离线浏览 我们下载当然为的是离线浏览,当下载完了以后,左键单击你想浏览的网站,你可以看到任务栏下的一排菜单有几个变成黑色,点击滚动条上的Browse(这个Browse与任务栏上方的Browse不同,前者浏览网页,后者浏览下载下来的文件目录),WebZIP首先将打包压缩的网站文件解压到一个临时目录,随后调用系统默认的浏览器进行浏览,当然你也可以在主菜单中选择“Action-Browse-Offline”指定浏览器进行浏览。由于WinZIP内置浏览器与IE兼容,看起来就象是和在线时完全一样。这回可以不用花钱就体验上网的无限乐趣了吧!! 好了,到此为止呢,已经把WebZIP的一些初级的使用方法介绍了,如果大家等不及要去下载自己喜欢的网页了的话那就马上动手吧。如果你还不满意的话,请继续往下看好了。 三、WebZIP 的进一步设置和使用 1.查看下载内容 对于下载回来的内容进行一下检查是完全有必要的,因为这是我们修正WebZIP某些未知错误的机会。按主菜单的“Action-Explore”按钮,WebZIP列出所有下载的文件,如图四所示。 图四 注意每个文件的前面都有一个标记(Mark),下载完毕的文件都是以勾号标记,后面的Status栏是Parsed。如果下载过来的文件出错,就可以命令WebZIP下次重新下载它。方法是用鼠标选择该文件,单击鼠标右键,在弹出的菜单中选择Mark for update,这时文件前的标记改变, 下次WebZIP会记着更新这个文件。 2. 安排某个下载任务自动执行 在Tasks工具窗口中选择某个下载任务,以鼠标点击快捷工具栏的Schedule Task,在弹出的Schedule Task窗口里,点选Schedule(Once-off),这表示一次性下载,在At后面你可以选择下载任务自动执行的日期和时间;如果你需要下载的站点被经常更新的话,可以点选Every(每隔几小时几分钟)/Daily(每天几点钟)/Weekly(每个星期哪几天的几点钟)。 Schedule设置是否使用定时下载,分三个选项:“Now”立即开始下载、“At:”在设定的时间开始自动下载、“Don"t schedule this task”不对这个任务进行预定。 3. 通过代理服务器下载站点 如果你是通过代理服务器下载站点的话,与浏览器一样,也需要对WebZIP 进行设置,选择View-Options-Connection,在弹出的窗口中激活连接通过代理服务器,并在Address一栏中键入代理服务器的IP地址或域名,在Port一栏中键入代理服务器的端口号(如果代理服务器要求验证的话,还要输入用户名和密码)。 WebZiP确实是一个功能强大的离线浏览器,除了基本的下载与离线浏览外,还支持智能更新(允许通过仅下载新的或更动过的内容来快速更新信息,而不用将已有信息重复下载)、智能恢复、继续(允许在下载过程中随时中断或继续)、日志等功能。还有的功能读者有兴趣的话,可以继续自行挖掘。 -上一篇文章: 离线浏览器WebZip2.01的
2023-07-31 07:31:541

WEBZIP为什么打不开网页

先试三个办法一、打开IE,点工具,点internet选项,点高级,点恢复默认设置,点保存,退出,重新打开IE二、打开IE,刷新五次以上三、打开IE,点工具,点internet选项,点删除文件,点清除历史记录,确定,保存,退出IE,重新打开IE。以上三个办法都试了还不行看下面的三种可能: 1. 网速问题 2. 病毒问题 3. 电脑配置速度问题 以下几种解决方法: 1. 安全模式下查杀一下是否有病毒, 2. 或者重新安装浏览器看是否出现类似情况 3. 更换其他浏览器试试 4. 用别的电脑链接你的网线试验一下,如果出现类似情况,说明是你的网速问题 5. 最后一招。。修复系统 如果楼主说不是以上问题的话,那就有可能有人用p2p终结者控制了你的网速,如果这样的话,你可以采取两种办法解决: 1. 下载反P2P终结者软件,以毒攻毒 2. 使用360杀毒软件及浏览器,开启360防火墙,可以有效抵御控制网速的攻击
2023-07-31 07:32:011

如何用WebZip下载整个网站

运行webdup,在浏览器地址栏处复制需要下载整站的起始页面。进入webdup界面,会自动出现“新建项目向导”(如果没有出现,手动点“新建项目”),自动填入起始页面网址作为项目名称,“下一步”,确定起始地址,并确定下载的层数,如果层数为0,则为不限制;一般可以设置为3。层数的意思是,从起始页面开始计算,往后有多少层文件夹。确定好以后,点“完成”,然后点“开始”,就可以下载了。下载完毕后,算完了链接,会有完成提示。这时就可以在本地浏览下载后的整站了。
2023-07-31 07:32:081

webzip软件是一款安全软件吗,可以放心使用吗

webzip是一款可以离线浏览器软件,其实就是将网站下载到本地。如果你下的是官方提供的请放心使用。
2023-07-31 07:32:151

怎样把一个网站给全下下来?

  离线浏览器WebZIP教程  作者:吴松/太平洋网络学院  上网塞车对于许多网虫来说是一件相当痛苦的事,特别是对modem的使用者来说,那何不将网站中想要看的内容给搬回家慢慢看呢?Webzip就是这么一套快速且简单易用的离线浏览软件。  Webzip是一个高效能的离线浏览软件,可以将您所喜爱的网站整个搬回到您的硬盘中,这样子您就再也不用因为网路塞车而一再的痛苦等待了。Webzip之所以快速的秘密就在於它一次可以同时下载多个文件,还可以边压缩边下载,这样的下载方式不仅充份的使用到您的网路连线频宽,再加上下载的同时并没有同步显示在浏览器中,所以自然速度就飙起来罗。  WebZIP软件档案:  软件名称:WebZIP Version 3.80  软件类别:离线浏览  文件大小:745K  下载文件:如:webzip380.exe  系统要求:Windows 95/98/NT/2000 Internet Explorer 4.0以上的版本  WebZip是一款集下载、存储、在线浏览及离线浏览诸多功能为一体的共享软件。它的主要功能有:  1.下载一个完整的站点并把它压缩为一个Zip文件。这种一边压缩一边下载的工作方式是WebZIP的特色。由于下载过程中采用压缩方式,所以它下载速度特别出色,这一点是其它离线浏览工具所无法比拟的。  2.有选择地下载并压缩Web站点中所需要的内容。这使我们能够只下载自己感兴趣的内容,把不需要的给过滤掉。  3.WebZIP支持多链接下载,即一个站点可以有多条链接通道来同时进行下载,这样进一步提高了下载速度。WebZIP缺省是以10条链接下载一个站点,你最大可设置为16条。  4.离线浏览已下载的Web站点。这是离线浏览工具最基本的功能了,如果连这也没有就是笑话了。不过,这里特别要提出的一点是WebZIP有内置的浏览器,这样你就可直接使用内置的浏览器来浏览了。  5.智能更新。WebZIP允许让你只下载新的或变动过的内容,而不用将所有站点信息重新再全部下载,从而快速更新站点内容。  6.智能恢复、继续。WebZIP允许你在下载过程中随时中断,以后你可以从断点处继续下载,这很类似文件传输中的断点续传功能。  7.通过设置,你可以安排WebZIP在某个时间里自动启动下载站点进程。  下面就详细地介绍一下它的基本使用方法。  一、WebZIP安装和启动  WebZIP的安装十分方便,下载后的文件为exe格式,直接执行就可开始安装,整个安装过程完全为傻瓜式,你只须点击Yes或OK按钮即可顺利完成。  安装完成后,你在开始/程序中选择WebZIP,就可启动。首次运行,基本上无须作什么设置,你就可以直接使用。  二、WebZIP之初级使用篇  对于大多数用户来说,一般只需要使用一些最基本、最常用的功能,只要可以把网站拉回来就可以了,在本篇中,就先为您介绍WebZIP的初级使用。以下载一个网站为例:  (1)设定下载站点  图一  WebZIP的主界面如图一所示。在下载网站之前我们要先设定下载的目标站点。我们有多种方式建立任务,最方便的就是在WebZIP的快捷工具栏中点击“New Task”,在正文框中会显示出下载任务列表,这时只要在“Download URLs”栏中填写你要下载的站点,比如我们想下载“http://www.pconline.com.cn”。  (2)具体设置  图二  填好目标网站后,点击“Task Properties”将会出现下载任务设置对话框,如图二。在Task Name中为我们即将进行的下载任务取个名字,比如说:“pconline”,在Category(类目栏)中选择默认的Custom。选择“设置项目”列表栏中的“Download Method”项目,选择下载网站的类型,可以通过“Profile”下拉菜单选择要下载文件的类型,分别为:  Selected Page(All)--下载所选择的页,包括所有的文本、图像、声音、Java、 ActiveX等信息,资源局限于站点;  Selected Page(Text,Images)--仅下载当前站点中所选择页的文本与图像信息;  Selected Directory(all)--下载当前站点中所选择目录的所有信息,包括子目录 ;  Selected Directory(Text,Images)--仅下载当前站点中所选择目录的文本与图像 信息,包括子目录。  Selected Site(All)--下载当前站点中所有信息;  Selected Site(Text,Images)--仅下载当前站点的所有文本和图像信息。  其中Selected Directory(Text,Images)最常用。 接着可以对下载任务进行一些更详细的设置。包括:  FileType(文件格式)):Webzip会让你设定下载的文件类型。默认项是所有文件。可供选择的文件类型包括了HTML、Image、Vido、Java等文件类型。如果没有特殊要求,建议大家选择HTML和Images,而不要选择软件默认的ALL。如果你认为Winzip所列的文件类型不全,还可单击Add功能键来添加;  Followed Links(设置链接限制)可以选择WebZIP下载网页内容时限定的最大层次,以及在网站和目录中要限制的连接。  URL Filters(链接过滤)可以对网址按关键字设定,上面一栏是设定下载的连接必须包含某些关键字,点ADD(添加)出现菜单,依次询问是对哪种连接作限制,选项有所有连接、网页连接、源件连接。下面一栏则是要求下载的页面不能包含哪些内容,要求与左栏一样。现在我们单击ADD,为所有连接输入asp,则只下载包含“asp”三个字符的连接。这对我们进行有目的的下载很有帮助。  Follwoed Links (Adv)(高级选项设置)让我们决定是否让WebZIP强行分析脚本代码并跟随连接,鉴于WebZIP不能解释Java script或VB Script,这项我们一般不选。  Link Conversion(连接变换)一般使用软件默认即可,这样可使你下载的资料在离线阅读时感觉与在线一样方便。  Password标签项提供了需要使用授权口令登录登录下载服务器时的用户名和登录口令设置,根据需要设置即可。  Schedule(时间表)请你指定该任务的开始运行时间。可选现在运行、指定时间运行和不进行时间安排,一般我们选第三项,不安排。  (3)下载  好了,全部设定完毕,现在就可以开始下载了。方法是按下任务栏中的“Run Task ”按钮,任务就开始运行了。如果你觉得速度不令人满意,只需在任务栏中将叉改成箭头或单击Stop即可,因为WebZIP支持“断点续传”,所以这次没下载完的下次还可以继续!下载的时候我们按滚动条上Connection按钮查看一下状况,如图三所示。  图三  在中间一栏中可以看到当前建立的连接,默认是同时连接10个文件进行下载,可以通过Connections滑标进行调整。靠右的“Download Priority”滑标是选择倾向于优先下载网页还是倾向于优先下载其它文件资源。在左下方的状态栏中,显示了总共连接的时间、已经下载的文件量、下载速度等等,并有传输、暂停的快捷工具按钮。  下载完毕后,WebZIP会自动弹出提示,并将下载的内容打包成为一个ZIP文件,这样是不是很体贴呢,也不用占很大的硬盘空间了。  (4)离线浏览  我们下载当然为的是离线浏览,当下载完了以后,左键单击你想浏览的网站,你可以看到任务栏下的一排菜单有几个变成黑色,点击滚动条上的Browse(这个Browse与任务栏上方的Browse不同,前者浏览网页,后者浏览下载下来的文件目录),WebZIP首先将打包压缩的网站文件解压到一个临时目录,随后调用系统默认的浏览器进行浏览,当然你也可以在主菜单中选择“Action-Browse-Offline”指定浏览器进行浏览。由于WinZIP内置浏览器与IE兼容,看起来就象是和在线时完全一样。这回可以不用花钱就体验上网的无限乐趣了吧!!  好了,到此为止呢,已经把WebZIP的一些初级的使用方法介绍了,如果大家等不及要去下载自己喜欢的网页了的话那就马上动手吧。如果你还不满意的话,请继续往下看好了。  三、WebZIP 的进一步设置和使用  1.查看下载内容  对于下载回来的内容进行一下检查是完全有必要的,因为这是我们修正WebZIP某些未知错误的机会。按主菜单的“Action-Explore”按钮,WebZIP列出所有下载的文件,如图四所示。  图四  注意每个文件的前面都有一个标记(Mark),下载完毕的文件都是以勾号标记,后面的Status栏是Parsed。如果下载过来的文件出错,就可以命令WebZIP下次重新下载它。方法是用鼠标选择该文件,单击鼠标右键,在弹出的菜单中选择Mark for update,这时文件前的标记改变, 下次WebZIP会记着更新这个文件。  2. 安排某个下载任务自动执行  在Tasks工具窗口中选择某个下载任务,以鼠标点击快捷工具栏的Schedule Task,在弹出的Schedule Task窗口里,点选Schedule(Once-off),这表示一次性下载,在At后面你可以选择下载任务自动执行的日期和时间;如果你需要下载的站点被经常更新的话,可以点选Every(每隔几小时几分钟)/Daily(每天几点钟)/Weekly(每个星期哪几天的几点钟)。  Schedule设置是否使用定时下载,分三个选项:“Now”立即开始下载、“At:”在设定的时间开始自动下载、“Don"t schedule this task”不对这个任务进行预定。  3. 通过代理服务器下载站点  如果你是通过代理服务器下载站点的话,与浏览器一样,也需要对WebZIP 进行设置,选择View-Options-Connection,在弹出的窗口中激活连接通过代理服务器,并在Address一栏中键入代理服务器的IP地址或域名,在Port一栏中键入代理服务器的端口号(如果代理服务器要求验证的话,还要输入用户名和密码)。  WebZiP确实是一个功能强大的离线浏览器,除了基本的下载与离线浏览外,还支持智能更新(允许通过仅下载新的或更动过的内容来快速更新信息,而不用将已有信息重复下载)、智能恢复、继续(允许在下载过程中随时中断或继续)、日志等功能。还有的功能读者有兴趣的话,可以继续自行挖掘。
2023-07-31 07:32:254

如何下载一个网站的全部链接

可以使用Webzip软件,进行整站下载。WebZip把一个网站下载并压缩到一个单独的ZIP文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。Webzip下载之后还依然用InternetExplorer打开,你朋友的电脑上这个肯定是有的。
2023-07-31 07:32:345

如何下载别人的网页

webzip WebZip 是把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可预定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 此版本是直接汉化程序文件,不同于汉化语言文件,汉化较彻底,但仍然有极个别字符没能彻底汉化,但不影响使用。因为是汉化的程序文件,在汉化中对程序界面做了大量优化和美化工作。安装中可选择安装中文版本或英文版本,并可以选择是否注册软件
2023-07-31 07:33:003

webzip7.0汉化版为什么会出现不能下载类似死机的状态?

下载时如果同时用IE访问的话可能会导致下载停止,解决办法,关掉该页面,刷新下载,强行重启webzip 另外,点击下载关闭,可能是CPU占用过高,建议在开始下载前设置好(我的电脑8年前的)
2023-07-31 07:33:071

如何完整的保存下一个网站

一般使用离线浏览工具下载整个网站 webzip 把一个网站下载并压缩到一个单独的ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,供你日后快速浏览。http://download.enet.com.cn/html/010102002050901.html webdup 可按照用户的设置下载网页以及相关链接,甚至下载整个网站,更具有备份并对下载信息进行分类管理的功能。 http://www.skycn.com/soft/877.html
2023-07-31 07:33:141

怎么能把这个网站资源全部下载?

使用Teleport Pro工具或者网站下载工具WebZip Teleport Pro工具、网站下载工具WebZipTeleport Pro工具 首先安装好网站下载工具Teleport pro 1.2,然后进入该程序,出现程序的主界面,单击“OK”按钮继续;首次进入时程序会要求你设置一些参数,第一步请选择“建立一个可浏览的完整网站拷贝”,即第一个选项,按“下一步”继续;第二步再输入网站地址及名称;第三步再选择下载的文件类型,在这里选择第三项,下载文件、图形和声音文件。接着在下面输入你的帐号和口令;最后完成设置,按“完成”进入程序;在进入程序主窗口前,程序要求你输入新建文件的文件名;进入窗口后,工具栏中提供程序的大部分功能按钮。单击“播放”按钮表示开始下载,下载时还能暂停、放弃等功能;每下载一个网站,工具栏右边的小圆球按钮就会变红,表示正在下载;单击“Project”按钮下的“Project Proerties”命令,进入Teleport pro的属性设置;在这里你可以设置要下载的站点、浏览方式等;网站下载工具WebZip 听名字以为是压缩网站的软件,其实它最大的作用是作为一个离线浏览器。WebZIP最大的特点就是将下载与压缩结合了起来。利用WebZIP可以将选择的网站下载到本机硬盘并压缩成一个包,然后在利用它来离线浏览,这样做的好处可以节省硬盘空间,方便管理。一个包就是一个网站,浏览哪个就解开哪个,不必弄得整个硬盘乱七八糟。安装WebZIP 为它说了这么多好话,到底怎样啊?请跟我来,一起使用WebZIP吧。WebZIP的安装文件大小约为1.3M,安装的过程也很简单,只需要一直按“Next”按钮,软件就会依照缺省安装。 安装完成后,用鼠标单击“开始”“程序”“WebZIP”“WebZIP”选项,启动WebZIP后,就出现以下画面。单击“Continue”选项后出现了WebZIP的超酷界面。如果你这时候已经连接上了Internet,WebZIP就会自动连接到Spidersoft的主页上进行浏览。只不过,它借用的是你硬盘内现有的浏览器,把浏览器的浏览功能集成到自己的界面内。如何下载站点选择下载站点 Internet上站点很多,任何一个都可以由WebZIP下载。这里可要提醒你,网上的网站大多数都是有版权的,下载后不要随便传播。 在主界面的地址栏里输入网址,按回车键或单击地址栏右边的眼睛图标开始浏览。请注意地址栏左边的五个按钮,它们分别是:上一页、下一页、停止、刷新、主页。下载内容设置 当你指定了要下载的网站后,还可以选择下载的内容。有时候你也许只想下载单纯的页面,有时需要下载的是图片,还可能你要的是某页面的Java程序,或者干脆将整个网站都搞下来,不同的下载目的就有不同的下载选择。如何对下载的内容进行设置呢?用鼠标单击“View”“Profiles Editor...”选项(见下图),弹出“Profiles Editor”窗口。在“Profiles Editor”窗口中,你可以选择下载的内容,还可以设置下载的页面层次。建立下载方案 这可是非常重要的步骤,在设置好下载的内容后,就要对下载方案进行设置。单击地址栏右方第二个图标按钮(就是硬盘上面有个红箭头的那个),出现“Create New Task”对话框。最上方有三个选项: “Task Name”是该下载任务的名称;“Category”是下载网站的种类;“Profile”是下载方案。WebZIP提供六种方案供你选择,却省为“Custom”自定义方案。在这些选项下面,就是具体定义方案的设置了。 “Starting Address”,就是下载网址起点,也是网站的首页。它包括用户及密码设置。 “Save to”,这里有两个选项: Download this Website to your Personal Intranet是将该站点不经压缩直接载到你硬盘的某个目录下。 Download and Zip this Website是将该站点压缩成ZIP文件存在一个目录下。一般情况,我们都选择它,毕竟,这是用WebZIP的主要原因。 Rename zip file to start page title复选框是指是否将下载的首页标题作为ZIP文件的文件名。 “Filetypes”,这里是你要选择想下载的类型。点击类型前面的加号可以看到该类型包含哪些扩展名;选中All是下载所有内容。你还可以通过New、Edit和Delete来增删当前的文件类型。 “Followed Links”和“Followed Links(Adv)”是有关超级链接的设置。 “URL Filters”是下载过滤,其中Include是URL中必须包含的文字,Exclude是URL必须不包含的文字,Add、Edit、Remove是编辑用的。 “Link Conversion”很有用,如果你希望下载的网站能顺利离线浏览,那你就不要选择Do NOT convert ANY followed/unfollowed links,WebZIP将把所有超链改为本地链接,否则你一点又连上去了。 “Schedule”是该任务的执行日期,分立即、在某一时候以及手动执行,你可自行选择,一般来说都是立即执行的。 所有设置好后,最后按下“OK”按钮存盘或“Run Now!”立即执行。开始下载内容 当你执行了后,返回WebZIP的主界面,你会发现你的任务已经在“Tasks”目录中了。双击任务名称使其开始工作,WebZIP会切换到ZIP Properties窗口,同时,最下方的状态窗口开始工作了。最左边是任务名、已下载时间、已下载字节以及传输速率;最右面就是传输率曲线;中间三行字分别是“Pages”、“Media Files”、“Errors”。当下载完毕,在你指定的目录下就会多出一个ZIP文件,在Zip Properties窗口里右击它,选择Unzip就可以解开。 至此,WebZIP的主要功能就介绍完了,当然,WebZIP还有一些其它的设置,那就要看大家的啦!
2023-07-31 07:33:211

【强求】一款离线浏览软件,可以实现下载有登陆验证的论坛数据。

你可以试试Webzip,我用过了,效果还不错! 安装完成后便进入了Webzip的主界面。当你在Address对话框中输入需要下载的网站的网址,当然也可以是该站点的任何一个主页地址,按回车键就进入了Webzip的任务导向,它会帮助你完成下载前的一些设定的.
2023-07-31 07:33:291

如何批量抓取网页目录下的所有文件

1、首先,如图所示,我们找到目标文件夹,我们需要把文件夹内的所有文件的文件名批量复制。2、我们打开WINRAR,然后打开到目标文件夹,如图所示,全选所有文件后,右键单击选择“添加文件到压缩文件中”。3、此时,弹出“压缩文件名和参数”面板,我们点击其中的“文件”标签,就可以在要添加的文件中看到所有文件的文件名了(显示不全),我们按“ctrl+c”复制下来。4、然后,我们打开Word或者记事本,按“ctrl+v”粘贴,就可以批量得到文件名了,效果如下图所示。
2023-07-31 07:33:374

WebZIP网页下载后怎么把网页上面的那个广告去掉 我已经提了很多问题了还没解决啊 烦

查看-选项(CTRL+O),出现的第一个选项卡,第一项,“在每个保存的WEB页面内插入页面信息”,把前面的勾去掉,再保存网页就不会有了。使用的是7.0注册版。
2023-07-31 07:34:151

有没有把网站下载下来离线浏览的软件的啊?

1. WebZip 7.03 中文语言包 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 2. 网站全额下载器 2002 “网站全额下载器”是一个离线浏览的最佳工具。只要几分钟就可以将一个网站全部下载。包括网站内的图片、文字、程序、软件.....等。所以这也是研究别人网站的最好帮手。 3. WebZip 7.0.3 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 4. 离线浏览助理Webdup 0.93 Beta Webdup能够把您想要浏览的信息(如网页和图片等)预先下载下来,保存在本地硬盘,使您可以从本地进行离线浏览,这样不仅可以大大减少上网时间,降低上网费用,还可以加快浏览速度;并且将来无须上网就可以很方便地查阅这些信息。不仅如此, Webdup更提供了备份历次下载记录和比较完善的管理功能,使您能够方便地分类保存和管理有价值的下载信息。 Webdup的当前版本实现了以下功能:1.支持HTTP和FTP下载,并支持HTTP和Socks5代理服务器;2.支持多线程下载;3.支持断点续传;4.可按URL和文件后缀名设置过滤,只下载所需文件;5.自动识别下载过的文件是否更新过,减少重复下载;6.可设置定时下载和定时停止;7.支持自动拨号和自动挂断;8.可导出和导入项目文件,方便用户交换网上资源;9.提供与浏览器(IE)的整合,方便快速地创建项目;10.支持项目和类别的拖拽操作,方便用户分类管理项目;11.能自动识别操作系统的语言,按需显示中文或英文。 5. WebZip 7.0.0.1025 汉化版 WebZip 是把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可预定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 此版本是直接汉化程序文件,不同于汉化语言文件,汉化较彻底,但仍然有极个别字符没能彻底汉化,但不影响使用。因为是汉化的程序文件,在汉化中对程序界面做了大量优化和美化工作。安装中可选择安装中文版本或英文版本,并可以选择是否注册软件。 6. 木马专杀大师 2.6 本软件采用了先进的程序行为智能判断技术。软件通过分析每个程序的机理来判断木马,不需要木马的特征码,可查杀未知木马。实时扫描内存中的每个程序,一旦发现木马,即时查杀。强力保障您的计算机、网络游戏帐号、QQ和邮箱帐号等不被木马侵害。 目前查杀病毒木马的软件基本都是采用了特征码查杀技术,也就是说用户要不断的下载和更新病毒木马库才能查杀最新的木马。这种方法的弊端很明显,因为每天都有新的木马出现,一旦木马库更新不及时,用户就面临着危险。而且软件的厂商也肯定不能把所有的病毒木马库找全。所以很多用户虽然安装了这些安全软件,帐号还是经常被木马窃取。因此一款好的木马查杀软件必不可少。 7. Teleport Pro 1.40 Teleport Pro所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。 8. Weblinky 1.12简体中文版 WebSlinky可以把站点拷贝到你的计算机里,你可以在方便的时候离线读取,不必等待下载的时间。此程序提供了一个简单的界面,使你能够进入你希望缓存到计算机中的站点地址(URL)中去。它还提供了WebSlinky保存站点文件的本地文件夹的路径和名字以及用户名和口令(如果站点要求).Name:CZY Code:1010107261 9. 网络蜘蛛 1.0 网络蜘蛛是一个自动搜索 HTML 页面并下载指定文件的软件。最初设计它是为了下载网站上的图片,想想看,面对那些动辄拥有数百幅图片的网站,你是否有耐心和时间一一点击查看和下载?而且在目前上网费用如此高昂的年代,在网站上慢慢地手工浏览和下载图片是不是太过奢侈了一点?如果你是一个图片收集爱好者得话,建议你试一试网络蜘蛛这个软件。它可以从你指定的地址开始,自动搜索网站并下载图片或其它软件。听起来似乎有点象离线浏览器或网站下载软件是吗?其实它们还是有些差别的,网络蜘蛛的设计目标主要是针对图片等一些比较零碎的、尺寸不是很大的文件的下载,并高度强调自动化工作和高可靠性。 10. WebCHM 2.07.7507 WebCHM(原WebSeizer测试版)是中国最强大的多线程离线浏览软件,专业的下载大型网站的工具。可以下载整个网站所有的文件,也可以只下载同一个目录的文件,还可以下载指定的层次。主要特色是可以下载超大型的网站(容量>10GB,文件数目>100万的网站),并且内置了CHM压缩引擎,可以灵活方便地将下载的网页制作成CHM压缩文档。下载大型网站时,可以边下载边压缩到CHM文档,以节省空间;下载几百篇文章的小说时,可以下载后再制作成可以在PDA上阅读的CHM格式的电子书。支持断点续传、在线升级、分类管理等功能,操作方便,体贴用户。 11. Offline Explorer 4.1.2347 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 12. BlackWidow 5.00 Beta 19 一个非常简单易用的离线浏览器,它能列出你指定的站点的全部文件,你可以选择需要的文件下载。 13. HTTrack 3.40 一个相当容易使用的脱机阅览软件,能将网站传送到计算机目录里,并且会将所有相关链结重新组织,以方便更顺利的脱机浏览。 14. Aeria Leech 4.3.3 Leech是一个不错的离线浏览器,能够多线程下载多个文件。系统要求:IE4.0或更高版本。 15. CopyWebsite 2.43 离线浏览工具,仅仅需要输入需要下载网站的URL,所有的网页就可以被下载,包括图像和zip文件。 16. 网页抓手(FileCatch) 1.07 网页抓手(FileCatch)是设计来取代IE的另存为菜单的软件,能够嵌入到IE的右键菜单中后台形式保存网页,不打断浏览;此外,FileCatch仅仅保存网页而不包括图象,解决了一存一大堆的现象;FileCatch提供了自动生成一定意义名称的功能,使你不需要为命名烦恼;FileCatch通过智能补完相对地址到网页中,解决了保存的网页超链接丢失的现象;FileCatch能够将网页依耐的CSS嵌入保存到html文件中,保持网页的美观,逼进在线的效果;FileCatch支持对智能选项和代理服务器,使你方便的使用定制;FileCatch是免费软件,你可以自由的使用。 17. Offline Explorer Pro 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 18. Teleport Ultra 1.40 简体中文版 Teleport Ultra 所能做的,不仅仅是离线浏览某个网页 (让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从 Internet 的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页抓回来慢慢欣赏,如果你也曾像我一样,费尽千辛万苦只为了重复抓取同一网站的文件而做一些机械性的动作,Teleport Ultra 简直是我们的救星!它可以迅速、确实地将整个网站复制在你的硬盘中,为您节省大笔的上网费用与时间。Teleport Ultra 是著名的离线浏览软件 Teleport Pro 版本的增强版! 19. Teleport Ultra 1.40 Teleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页捉回慢慢欣赏,如果你也曾像我一样费尽千辛万苦,只为了重复捉取同一网站的档案而做一些机械性的动作Teleport Ultra 简直是我们的救星!它可迅速、确实地将整个网站复制在你的硬碟中,为您节省大笔的连线费用与时间。Teleport Ultra 是著名的离线浏览软件Teleport Pro版本的增强版!更新记录:1.新增了一项功能,使得该软件的Ultra, VLX, Exec, Exec/VLX版可以打开比较小的项目2.新增了可以在UNC卷上运行项目的功能3.在Exec和Exec/VLX版本中新增了API命令4.更新了所有版本的文档5.改进了脚本,可以处理更多的脚本命令6.改进了规则引擎7.修正了会取回一些不需要的URL的bug8.重新设置了Ultra版的试用期 20. Offline Explorer Enterprise 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 21. WebCopier 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 22. Offline Explorer Pro 2.2 汉化版 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 23. Grab-a-Site 5.0 这是一个离线浏览工具。你可以把喜欢的网站抓到本地硬盘上细细的欣赏甚至包括那些有密码保护的站点。还有过滤指定站点的功能。 24. Black Widows 4.37 可以让您建立Web站台的整个目录结构并将之储存以便日后利用,当您下载文件时,依您的选择进行建立下一个网站结构。您可以选择下载整个或部份的文件,也提供续传功能让您下载中断时使用。 25. HTTrack Website Copier for Windows 3.40 Beta 4 HTTrack是一个免费并易于使用的线下浏览器工具,它能够让你从互联网上下载整个网站进行线下浏览。浏览线下站点和线上并没有什么不同。HTTrack同样可以进行线下线上站点同步,支持断点续传。HTTrack是一个可全面配置并包括全面的帮助系统的工具。 26. WebCopier 官方中文语言包 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 27. BackStreet Browser 3.1 BackStreet Browser是个离线浏览的好帮手。它的特性是,同时多个执行绪对目的网站做存取,充分利用频宽,不必受到网络traffic状况的延迟而拖长等待的时间。对于不想花费时间在无谓的等待的人,BackStreetBrowser是不错的选择。 28. SuperBot 4.5 SuperBot帮您将整个网站搬回家SuperBot是个全自动的离线浏览软件,您不需要做太多的设定,便可以将自己想看的网站给整个搬回家!SuperBot与一般的离线浏览软件最大的不同处在于它的操作使用相当简单,您只要设定好想要下载的网站路径以及下载网页存放的路径,SuperBot便可以自动为您进行网页下载的工作了,不过这坪要注意的是,如果您想要下载存放的网站相当大的话,您可能要花相当长的时间等待。 29. SuperHTTP 1.0 SuperHTTP是一套离线浏览软件,可以将整个网站按照目录结构顺序、超连结等,完整下载到硬盘离线浏览,也可以选择只下载图形文件或者其他文件,包括html、txt、pdf、doc、jpg、bmp、gif、png、mpg、mp2、mp3、avi、wav、mid、exe、zip等等,只需在设定中打勾或取消即可,不用一个一个输入文件类型,允许同时下载多个网站,以及显示下载进度功能。此外也提供搜寻引擎功能,可输入关键字搜寻所下载的网站来找出所要的文件或资讯。 30. MemoWeb 3.3.05 离线网络浏览器,以供使用者方便快速的直接在电脑中浏览这些网页。你可以选择是下载整个站点的所有的文件,还是下载首页,或者是某一个部分。同时它还支持下载多媒体文件,例如图片,声音,和视频动画。支持长文件名,断点续传,支持代理服务器。 31. eCatch 3.0 简单实用的离线浏览器。由使用者设定所要观看的网址及连结的层数,而直接抓取并建立一个「可浏览的连结网页」到使用者的电脑中,以供使用者方便快速的直接在电脑中浏览这些网页,可以监视及下载数以千计的网页以供离线观看。可自订组态抓取网页中的特殊文件,像是多媒体文件及自解压缩文件等。 32. WebStripper 2.62 是一个离线浏览器,可以快速、准确地将站点下载到你的硬盘中。它的使用非常简单,而且还提供了多个过滤条件,比如:图像文件的大小等,另外,它还可以提取新的或是升级的页面。 33. DISCo Pump 3.1 这是一个离线浏览器,具有交互性的界面,独一无二的文件树、浏览向导图、页面图标、预览选项。通过它你可以速度地将网页保存到本地,然后离线慢慢进行浏览。 34. GetBot 3.04 GetBot储存网页、抓文件两相宜用GetBot可以很快的将网页中所有的MP3文件或者图形文件。你只要将网址贴进GetBot位址列中,GetBot就会完整的显示出该网站的所有网页以及文件。然后你只要选取要下载的网页以及文件,按下get钮,GetBot就会帮你将所有文件抓回来了。而且GetBot也有续传的功能,不怕抓文件抓到一半断线。GetBot的使用算是很方便,甚至不需要安装,直接就可以执行。 35. 帖子离线浏览器 1.2 1.非常灵活:帖子左边的分类名称和roomid是根据xml文件动态给出的,您可以随便更改该文件从而显示不同的内容,正因为这样,所以他可以适应CSDN的任何改版。2.良好的兼容性:除了CSDN帖子外,通过修改xml配置文件可以适应任何的离线帖子和从网上收集的文章,同时导入选项也是xml个数的,非常方便扩充。3.绿色软件,不写注册表。4.强大的查找功能,可以查找任何一个论坛或子论坛,而且可以递归。 36. 精华浏览器(MixBrowser) 1.7 简体中文版 精华浏览器是一款精致的离线浏览软件,她可以帮你保存网页、图片和flash动画,并以网页的形式浏览整理它们,轻松拥有自己的精华区。有了她你就可以保留那些对自己工作和生活有益的文章、原创,精美的图片和有趣的flash动画在身边,使自己从疲劳的搜索再搜索,或“我记得在哪看过一篇文章”的遗憾中解脱出来,只需鼠标一点即刻保存。作为浏览器,她更拥有鼠标动作、安全浏览和集成搜索、关键字加亮等特色功能,让你的浏览更轻松、更舒适。 37. Power Siphon 1.9.6.0 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 38. WebCopy 99 1.7 是一个可以直接将WEB 网页拷贝储存的软件,包括可以拷贝整个网页、文字、图像、声音及电子邮件等等,这样即可离线观看网页。 39. 网络猎手 2.5 这是一个很好的网上资料收集工具,在浏览器中,你可以通过右键菜单很方便的收集资料,你可以部分选取保存,也可以全部整页的保存,而且保存下来的页面更原来的一样。并且支持拖拉保存,使你可以将没有右键菜单的页面很好的进行保存。而且还提供了页面上一些文档链接(**.zip)的下载功能.下载下来的页面可以进行分类保存和编辑,并最终可以生成eBook(CHM)和HTML文件。 40. Flash Favorite 1.4.8.5.8 FlashFavori 允许你浏览下载到 Internet 临时目录中或当前打开的网页尚的 FLASH 文件。 41. NewsVampire 1.4 本软件的主要功能是将众多网站服务器上的网页快速下载到本地机硬盘上以供离线浏览。其特点是采用了多线程循环下载技术,可自动将数百个网页连同图片自动快速下载并存盘;用户可以一边下载,一边浏览已经下载的网页,从而最大限度地利用网络资源。全中文显示,支持HTTP代理服务器。 42. CatchTheWeb Express 1.2 CatchTheWeb Express不但是个网页浏览器,而且它还可以让使用者将网页从Internet抓取到电脑之中,然后重新组织安排各个网页的顺序、添加注解,而让这些网页具有如展示简报般的用途。只能一次抓取一个单一网页,所以单单在抓取网页的功能方面,并没有离线浏览程序那么好用,但是对于网页资讯的利用方面,却是一个不错的简报辅助软件。 43. QuadSucker Web 3.1 QuadSucker Web 是一个功能强大的离线浏览工具,它可以帮助你完整的将指定的网站中的所有文件和图片,压缩包,多媒体视频或者音频文件统统下载下来,完全自动化操作,不需要人为的干预就可以轻松完成所有的下载工作 .. 44. Website Extractor 9.30 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 45. JOC Web Spider 3.72 离线浏览器, 支持 VBScript & JavaScript。 46. ImageSiteGrabber Pro 2.4.1 可以让您直接指定要抓取的网页以及网站位置,然后就可以轻轻松松的将这些图形文件影像给全部带回家。提供自动更名的功能。 47. Offline Commander 2.2 Offline Commander是一个网页抓取工具,支持FILE、HTTP、HTTPS、FTP协议和Proxy,还可以对抓取回来的网页资料做关键字、网址、标题、内文、文件大小、格式、文件修改日期等检索设置。 48. NetAttache Pro 2.61 可以设定所要下载的网页以及要下载的时间,NetAttache pro 会自动的拨接连接到该网站,将你需要的网页抓回来,然后再自动断线.它会依照你所设定的网页「层数」,将网页文件抓取回来.当网路拥塞时,它还会自动重试 10 次,并且以每次同时抓取20个文件的超快速度来下载网页.在下载的文件类型方面,你可以选择要不要下载影像文件、声音文件、Java、ActiveX、Plugins等等,甚至你还可以依照副档名,来设定所要下载的档案文件。 49. RafaBot 1.5 Rafabot是一个可以协助你将某站台复制到自己硬盘上的工具程序。它能以快速且多工的方式将一个大网站内的资料复制到硬盘上。你可以对它直接指定起始URL位址甚至是网页搜寻引擎的搜寻结果,也可以指定外部连结让Rafabot程序去为你将整个站台复制下来。就算你所想复制的资料范围超过原本网页的范围而延伸到其他的网页去,Rafabot一样可以将这种状况处理的很好。在网页复制下来后,你可以用多种条件去过滤你所找到的资料,让你从一大堆下载下来的网页资料中快速找到你所想要的资料。网页一但下载到你的硬盘后,你就可以在不连接Internet的情况下去读取这些网页资料了。 50. HMView 4.04 不错的离线浏览器.像是网页中的Form, Frame, Image Maps等都可以被完整的抓回来. 51. NewsLook 2.01 build0320 新闻离线浏览器,是一个能将互联网上的新闻内容快速下载到本地硬盘上,并可进行离线浏览的软件.它不仅具有下载速度快,操作简便,节省上网时间等特点,还具有个性化的新闻订阅和方便的新闻收藏管理功能,她可根据个人的兴趣爱好需要,订阅自己喜欢的新闻下载类型,并可设立相应的新闻收藏夹,用于管理新闻.而且它还是免费软件,无需注册缴费。 52. WebCopier Pro 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 53. WebRecorder 2.0a 专为下载大文件、网站的一部分或者是整个网站而设计的,它支持断点续传、时间调度等。 54. Personal Internet Engine 3.0.6 离线浏览器,可以下载指定网站,并用树型结构进行显示,支持进行查找。 55. SurfSaver Pro 2.3 可以专门用来存取一张网页,并且简单易用。它可以完好无损地保存网页,无论是图片、文字、超级链接以及Frame等等的都可储存在名为*.ask的文件中,所以一张网页就是一个文件。与众不同的是,Surfaver支持全文搜索,支持布尔方式和模糊查询,并且你还可以为你所需要保存的网页加上标题、注释和索引,也可把该网页E-mail给你的朋友,当然前提是他也必须用该软件来阅读。 56. SurfOffline 1.4.1 操作简单的网页离线浏览工具 - SurfOffline,使用它的精灵引导,输入您所要下载的网站网址,告诉它您所要下载的深度,这个站台就会下载回来在您的计算机中,下次要浏览时,不用联机,开启您所储存的项目,便可以离线浏览,唯一的缺点:不支持 Flash。 57. WebMirror 1.40 WebMirror 可以将网站快速下载到本地,以供脱机浏览。它可以提供页面大小和时间的信息。 58. Site-Thief 1.8.0 一款可以将整个网站内容都下载下来的工具,为用户提供了下载某个网站的选定部分或全部内容的能力,并将下载的内容储存在本地硬盘,从而可以离线使用. 59. HTML Converter 2.0 该软件可以把 IE4、IE5、Netscape 或 Opera 的 Cache 转换为离线的、可以浏览的网页。 60. HyperMaker HTML Viewer 3000.27 与HyperMaker HTML配套使用的HTML文本查看工具。 61. Power Siphon 1.9.1 Build 24 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 62. WebCapture 1.0 一款 Internet 网络工具。可用于浏览网页、生成镜像网站、下载文件、管理internet链接等等。可将整个网站备份到本地硬盘的工具,也可根据需要将网络链接改为指向备份后的本地文件,这样可以离线时浏览备份后的网站。还可以将要发布的整个网站整合到一个可执行文件,这样就可以在一个整合的浏览器里浏览你的网页。 63. WebSlinky 1.13 Build 105 WebSlinky 是一款非常小巧的离线浏览的软件,简单易用,它可以将你访问站点的结构复制到你的计算机上。 64. Zip Up The Web Lite 2.0.1 可以把整个网页完整的储存起来,含图及文字部分,又能把抓下来的文件储存成exe档,也就是把抓取回来的网页压缩成一个exe执行档。所以他比其他的类似软件更容易传递,也比较容易使用。 65. WebVCR 2.16 如同家中的VCR般的离线浏览程序,它有一个强大的程序向导带您如何录制您所要关看的网页内容,它并可让您同时使用多个网站的录制,完全不受限制。它支援IE2.0及Netscape 2.0以上版本的浏览器。 66. Website Extractor 9.30 汉化版 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 Website Extractor 帮你把整个网站搬搬搬…搬回家! 需要离线浏览时,你会怎么做?打开 IE,选「储存完整网页」的功能?若是需要一个有一千页的网站呢?储存一千次吗?Website Extractor 可以让你输入一次网页 URL,就等着所有的网页通通下载到硬盘中吧! 推荐人评价 ========== Website Extractor 让你下载整个网站或是连结。你可以设定下载的条件,免得下载过多的文件: · 包含/不包含特定的关键词 · 指定网域、目录 · 文件大小、型式、名称 · 要不要下载图片等等。 Website Extractor 可以让你同时下载最多 100 个文件,大幅节省上网的时间、费用。因为线路品质不好有文件传不下来吗?Website Extractor 提供续传的功能让你把没抓到的文件补回来。 最棒的是,Website Extractor 是完全免费的,没有讨厌的广告在旁边烦你! ---------------------------------------------------------------- 汉化说明 ======== 该软件原本带有多语言支持,但经测试,发现该功能很不完善,而且遗漏了几个标准资源的字符串,故本人发布的为直接修改资源的版本。无需原版。 汉化版相对于原版所作的更改: · 汉化文件:webextra.exe、DDOMAIN.TXT、default.txt; · 在 README.TXT 中添加汉化自述; · 删除了所有的语言文件; · 去除了主程序菜单中的语言选项; · 添加 XP 主题支持文件 webextra.exe.manifest,一定程度上美化了 XP 系统中的显示。 P.S. 大家都说这个软件是免费版,可实际上经本人研究,该软件乃共享软件泄漏之官方注册版也。不过不管怎样,好?/div>
2023-07-31 07:34:232

什么是离线浏览,有哪些常用的离线浏览器

很多用户经常上网浏览新闻,阅读技术资料以及电子书籍等,并且希望能够保存一些有价值的信息,但是由于网络速度以及上网费用等原因,直接在网上在线阅读信息,从时间和金钱的角度来考虑都是很不合算的,特别是对于拨号上网的用户更是如此。离线浏览是最有效的解决办法,通过使用离线浏览器,先将信息保存到本地硬盘上,然后离线浏览这些信息,既方便又省钱。 离线浏览的基本原理是:首先将需要的内容进行下载,在下载项目时,从用户设定的“起始地址”开始下载,在下载的网时对网页进行分析,解析出网页中所包含的全部链接,将符合下载条件的链接加入到下载队列中等待下载,这样不断地下载和解析,直到所有要求的链接都被下载到本地硬盘,然后就可以在本地硬盘上随意地进行浏览和阅读了。 离线浏览器有很多种,下面将介绍几款最常用的离线浏览器。 1.Offline Browser软件 Offline Browser离线浏览软件可以将所有喜欢的站点下载到用户硬盘上,不管是Web、FTP、HTTPS、MMS还是RTSP站点。同时拥有许多web开发功能,使得用户能够利用内置的浏览器方便的编辑、浏览和搜索下载的网页。该软件能够被安装到USB和移动设备上并直接运行。 2.WebZIP软件载的层数、文件类型、网页与媒体文件的定位以及网址过滤器,以便 使用WebZIP离线浏览软件能够完整下载网站的内容,或者用户也可以选择自行设置下按自己的需要获取网站内容。用户下载到本地硬盘中的网站内容将仍保持原本的HTML格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。现在使用WebZIP中新的FAR插件工具,可以把下载的内容制作成HTML帮助文件(chm);也可以把抓取的网蛄内容压缩为ZIP文件。用WebZIP软件进行离线浏览还可以节省大量的时间,因为从一个链接转到另一个链接的速度要比在线时快得多。此外,WebZIP最大可以同时下载16个网页或图片,并支持断点续传与使用代理服务器功能,所以能够在较短的时间内获得大量的信息。 3.WebCopier软件 WebCopier的功能就和它的名字一样,是用来复制网页的软件。用户面对每天晚上上网高峰时间,一定相当的无奈。此时可以利用WebCopier把网页先抓回来,然后再慢慢地看。WebCopier是一个强大的离线浏览软件,可以同时对100个文件进行下载。支持代理服务器,并内置了强大的搜索功能。 4.TeleportUltra软件 Teleport Ultra,是Teleport Pro软件的增强版,它以飞快的下载速度和灵活易用的操作向导,在离线浏览器类软件中独占鳌头,有“离线浏览大师”的美誉。 Teleport Ultra具有以下几个特性。 能够搜索并且下载某站点指定类型的文件,能够获取某站点的文件清单。 利用提供的时间表可以任意设置软件的运行时间,不论何时何地,都能让Teleport Ultra智能地工作。 可以从一个中心网站检测出与之链接的任何网站。 10个线程同时下载信息,使下载文件更加快速。
2023-07-31 07:34:321

webzip下载网站乱码

你的 网站和java代码是否是统一字符集,如果是,就在下载时设置字符集 也为你html代码字符集
2023-07-31 07:34:411

应该是你的编码的问题,zblog程序是utf-8的编码,安装zblog程序建议从官网下载。同时看下你的模板是不是使用的gb2312编码,或者在编辑的时候用的记事本打开的,建议用DW打开,下方有个灰色长条,点他,找到页面属性(如果找不到,就再找找肯定有)改成utf-8。更多关于zblog的知识可以到zblog仿站乐园看下的。。
2023-07-31 07:34:591

如何保存网页离线查看

问题一:手机离线保存的网页怎样查找? 1、在浏览器的左上角找到“文件”选项卡单击,下拉列表中会有一个“保存网页”, 把它保存下来,然后传到手机上即可。一般可以通过office软件进行查看,也可以选择浏览器打开。 2、也可以通过qq等截屏,保存为图片,然后发送到手机以图片行驶查看。 问题二:怎么才能把网页保存下来,离线看可以吗? IE浏览器为例,依次点选,“文件”--“另存为”--“保存类型”--“web 档案,单个文件(耿.mht)”,选好目录A、文件名B,“保存”。离线想看,在“目录A”处,双击“文件名B”即可。 问题三:怎么保存一个网页(可脱机使用) 菜单-文件-另存为.... 选择-网页,仅HTML 不要选第一个,第一个保存的内容太多,下载很慢. 你可以使用历史记录的 如果不是那些在线看的东西什么的 处应该没问题的 问题四:网页如何保存然后可以不上网查看,保存后的文件名htm 和html 可以离线查看吗? 如同题目,谢谢 neng 能的,只要把所有的图片连接文件都保存好位置,不用联网打开的. 问题五:360浏览器怎么保存网页能脱机浏览 360浏览器点收藏后,在那个框最左下角有个选择。你注意看一下。如果你选择打勾就可以保存全部网页,这应该就是所谓的脱机吧。呵呵。 问题六:IE浏览器下载保存网页在脱机下浏览的方法 这一类软件很多。 你可以为试下 WebZIP 和 网站整站下载器
2023-07-31 07:35:061

有些网页不能保存,或者保存后没有内容,怎么办?

  上网冲浪,经常会遇到心仪的网页,可是保存时往往会遇到各种问题,希望下面的解决方法对你有帮助。  一、现象:网页没有下拉菜单,无法使用“文件→另存为”,而且右键也被锁死  方法1:在目标网页上点左键,使用“Ctrl+A”组合键全选,然后粘贴到编辑软件(如Word、记事本等)里即可。  方法2:在目标网页上按住鼠标右键,不要松开,将鼠标移动到右键弹出窗口的“确定”按钮上,单击鼠标左键,窗口便会消失,再移动鼠标到目标网页上,松开右键即可。  方法3:有些网站按鼠标右键弹出的是收藏夹窗口,这时按住右键,不要移动鼠标,使用键盘的Tab键移动焦点到弹出窗口的“取消”按钮上,然后按一下空格键,窗口消失,再松开右键即可.  二、现象:网页在出现保存进度条时停止响应  方法1:出现这种问题最可能的原因是站点服务器或者网络路由器繁忙。这时只须及时终止原来的保存任务(即点击“取消”),重新开始保存操作,让系统重新向服务器提交申请即可;  方法2:先选择“文件→脱机工作”,再开始保存,这样IE将从你设定的临时文件缓冲区中读取数据。这时保存是肯定能顺利进行的,但如果你原来浏览时网页就不完整的话,保存的结果也是不完整的。  三、现象:下载后浏览时网页为空白,没有内容  方法1:某些网站出于安全或版权方面的考虑,采用一些特殊的网页代码,导致无法正常保存网页。单击“收藏→添加到收藏夹”,在“添加到收藏夹”窗口中,选中“允许脱机浏览”复选框,“确定”后IE浏览器就开始自动下载该网页了,以后只要从“收藏夹”中打开该网页即可脱机浏览。  方法2:单击IE工具栏中的“编辑”图标 , 选择“使用FrontPage编辑”图标 (在某些情况下,IE浏览器会直接出现FrontPage图标),则网页代码将出现在FrontPage编辑器里,这时执行“文件→另存为”即可。使用其他能编辑网页的工具亦可。  四、使用专门工具  方法1:利用WebZip  WebZip可以把一个网站下载并压缩到一个单独的 ZIP 文件中,而且可以设定时间来下载,也可以以相当直观的立体界面及传输曲线图表示下载进度。WebZip最大的好处在于可以按照使用者的意愿下载相关的链接资源。  方法2:利用Teleport Pro  Teleport Pro能够离线浏览某个网页,还可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,还可以创建某个网站的完整的镜像。  方法3:其他方法  如果仅仅要得到网页中的某些资源,比如动画、视频等,则可以采用一些专用软件进行下载。例如,想下载流媒体,可以使用StreamBox VCR;如果想下载Flash文件,则可以直接在脱机状态下到“Temporary Internet Files”文件夹中寻找。-------------------------------------------------------------------------------------------------------------------
2023-07-31 07:35:151

如何http下载一个文件夹

图形界面可以用离线浏览器,如webzip ,teleport Ultra,Offline Browser命令行批处理方式 wget
2023-07-31 07:35:241

有没有类似webzip功能的软件可以保存discuz!的论坛(该论坛需要用户密码登陆)的内容?

不知道,建议你去学习学习WEBZIP的使用教程,这个软件可以实现你说的功能,估计是楼主还没有学会怎么使用吧。。。我试过。。。可以的。还有一个软件也推荐下:teleport
2023-07-31 07:35:331

可以浏览所有网站的软件

谁知道什么软件是可以一键批量打开好多网页的1、其实,在“傲游(Maxthon)”浏览器的收藏夹功能中,就有一键批量打开特定网址的便捷功能,可以让用户的浏览效率成倍提高并且操作起来特别方便。2、只要知道网址,事先放在收藏夹---链接---里,用myie浏览器可批量打开网页。在“链接”里起一个文件夹名,如漫画。3、如果使用的是56及以前的版本,可以安装multi-links,或者FireGestures,使用,都可以实现这个功能,如果是57及以后的新版本,已知的支持该功能的扩展已经失效了,等作者更新。4、嗯,这种网页批量操作的,你下载一款叫“阿冲全能点击王”软件就能快速实现了,而且是完全图形界面菜单的。阿冲全能点击王能帮你做这些自动打开,批量网页模拟,点击按键模拟,提高你办公系统操作效率。5、点击菜单栏的“工具”标签,弹出列表点击“选项”。弹出的基本设置页面,点击“标签设置”。把“点击链接打开新标签时,总是切换到新标签页”前面的勾打上即可。什么浏览器可以访问各种网站?1、UC浏览器:事件跟踪,优质账号,精品栏目,订阅享受好内容,让你享受任何有趣的后续。在UC浏览器,头条视频小说,网游,无数有趣的资讯,好玩的视频在这里等着你。宙斯浏览器:平台安全稳定。2、chrome浏览器:chrome浏览器是一款可以让用户们体验到更加快速、轻松且安全使用网络的浏览器应用。这款chrome浏览器支持用户们进行多标签的浏览,每个标签的页面都是会在独立运行的,整个浏览器的界面也非常简洁。3、夸克手机浏览器 很明显,夸克是必备的一款的手机浏览器,它目前最火,甚至已经超越了UC浏览器。不过你肯定想不到的是夸克和UC其实是一家公司的产品。UC浏览器 Uc浏览器大部分的情况下,都是手机的必备浏览器。4、所以说如果一定要说一个浏览器可以浏览所有网站,那就是IE浏览器。第二个就是Firefox,也是国外的浏览器,它与IE最大的不同就是没用使用IE内核,有点就是插件比较多。5、多御浏览器是一款适用于Windows操作系统的浏览器,可以访问绝大部分的网站和在线资源。6、包括微软2020之后的edge,谷歌Chrome,然后国内所有浏览器也几乎都是基于chromium的,这些浏览器目前兼容性都很好。份额第二的是Firefox(火狐)。最后,有极少数过时停止维护的网站可能只有IE浏览器可以正常浏览。看网站用什么软件1、上元在线APP电脑版 软件类型:电脑软件 软件介绍:上元在线APP电脑版本是一款由苏州市上元节经伟文化教育贸易有限公司所推行的一站式岗位考题远程控制课后辅导服务平台。2、百度app。首先打开百度app,搜索需要查看网址的标题内容。其次进入网页后,点击底部框处的三条横线,左滑菜单栏至最后,点击复制链接。最后找到任意粘贴板,长按粘贴即可查看网址。3、浏览web网页,应使用浏览器软件。浏览器是用来检索、展示以及传递Web信息资源的应用程序。4、ipad要观看视频,可以下载“爱奇艺”,“土豆”等视频软件来观看。下载的操作为:在机器主界面点击“app store”进入后,随便点击一个免费的app打开,如“QQ”。在弹出的窗口界面点击“创建Apple ID。十大网站app排行榜1、驴妈妈旅游app这是来自驴妈妈旅游网官方专属手机客户端,驴妈妈app不仅仅为广大爱出去玩的朋友们提供旅行景区门票、酒店交通等一条龙定制化服务,妈妈旅游app还有一系列特色旅游服务,让出去玩的你省心又省事儿。2、苏宁易购 苏宁易购成立于1999年,位于十大购物app排行榜之列,其产品在家电,电子,百货等都有覆盖,经过多年发展,其业务以遍布全国各地,拥有1300多家互联网门店,凭借高品质,高服务的特点获得消费者的打理支持。3、排名前十的招聘app有智联招聘、前程无忧51Job、58同城、店长直聘、赶集网、中华英才网、猎聘、BOSS直聘、拉勾招聘、今日招聘。《智联招聘》创建于1994年,拥有3亿职场人用户,累计合作企业数达616万家。4、app排行榜前十名:淘宝 淘宝是最常用的十大软件之一,也是国内出现的较早的电商平台,受到了非常多用户青睐,且淘宝经常有大型的感恩回馈活动,折扣也是比较大的,产品涵盖也非常的全面。5、十大视频软件app排行如下:《优酷视频》优酷作为一个老牌视频应用了,在资源的综合量方面还是很多的。不管用户是喜欢综艺还是一些电视剧以及电影,都是可以在优酷中搜索找到查看。什么软件可以实现离线浏览网页你可以试试Webzip,我用过了,效果还不错!安装完成后便进入了Webzip的主界面。首先,我们要打开IE浏览器,用鼠标的左键点击我们要脱机使用的网页上方的文件。就是图中用红线框起来的部分。在点击后,会弹出一个方框。在方框中用鼠标的左键点击脱机工作。Teleport,有中文破解版,crsky.com有下。
2023-07-31 07:35:421

怎样下载网页的HTML

方法一:首先打开电脑,连接网络,因为没有网络你是打不开网页的。还要连接充电器,不然你的电脑会没电;2.然后第二步就是要打开你想要下载的网页,然后按步骤来操作把它下载下来。在浏览器打开你想要下载的网页,在浏览器的左上方找到“页面”选择另存为;3.在弹出的新对话框里面找到“保存类型”。选择“网页,全部”。然后点击“保存”,保存完之后一般都是有一个文件夹和一个网页文件的;4.查看保存之后的文件,直接点击网页文件就可以访问了。查看打开效果,一看这效果跟联网的效果一样的,如图:就是刚刚保存的网页。方法二:用QQ收藏了,当然这个要在浏览器里装插件,好处是存在云端,不占用本地空间,首先在百度浏览器中安装该插件;在需要收藏的页面,右键单击,弹出菜单中会出现QQ收藏选项选择添加页面到QQ收藏。后续会出现QQ登录介面,如果已经登录QQ账号,先自动进行快速登录,然后选择保存整个网页即可。
2023-07-31 07:35:586

问题是这样,你给我复制一个网站,要一点击就能连接上的,在说一下是怎样做到的,分就是你的!

超级链接,弄个超级链接,然后复制给你,你点击后就可以自动登陆
2023-07-31 07:37:055

会漫游的网络“蜘蛛”是什么?

“Teleport”和“Webzip”者是网络“蜘蛛(Spider)”,或称“机器人(Robot)”。所谓“蜘蛛”,是指能够在万维网上漫游,自动获取链接文档的程序,因其行为(在万维网上爬行)酷似蜘蛛而得名。无论它们叫什么,其核心的目的都只有一个:获取那些存储在因特网上的信息。我们熟知的Yahoo、EXcite和Sohu等搜索引擎都包含Spider。各种Spider的工作原理基本相同。设想一下您因查找某类信息而去访问万维网的情况吧。您在浏览的地址栏键入某个网址,浏览器显示出网站的主页,主页上通常列出网站内不同类别网页的链接,您点击其中可能包含目标的链接,得到下一级网页,查看这个网页,继续点击,直到发现目标。如果这个网站包含对其他网站的链接,您还可能链接到其他相关网站继续搜寻,直至找到目标为止。“蜘蛛”也要做同样的事情,不过它是自动进行的,而且可以同时运行多个线程,因而速度非常快(人工需要几小时的工作它只需几分钟甚至几秒种就完成了)。还有一个重要的区别是:“蜘蛛”通常不会像人一样去读完整的网页,它找到网页后通常只读完文件的头部,如果其中包含搜索的关键词则把网页的索引保存到分类信息数据库中,然后继续搜索。用户只要检索这个数据库就可以得到所需的信息了。
2023-07-31 07:37:391

为什么用web-zip下下来的整站,里面的字都是乱码?

可能是打开的程序不对,就出现乱码了,或者里面根本就是乱码
2023-07-31 07:37:461

我常用的几个类

我常用的几个类修改自hk的PHP代码:--------------------------------------------------------------------------------/*作用:取得随机字符串参数:1、(int)$length = 32 #随机字符长度,默认为322、(int)$mode = 0 #随机字符类型,0为大小写英文和数字,1为数字,2为小写子木,3为大写字母,4为大小写字母,5为大写字母和数字,6为小写字母和数字返回:取得的字符串使用:$code = new activeCodeObj;$str = $code->getCode($length, $mode);*/class activeCodeObj{function getCode ($length = 32, $mode = 0){switch ($mode) { case "1":$str = "1234567890"; break; case "2":$str = "abcdefghijklmnopqrstuvwxyz"; break; case "3":$str = "ABCDEFGHIJKLMNOPQRSTUVWXYZ"; break; case "4":$str = "ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz"; break; case "5":$str = "ABCDEFGHIJKLMNOPQRSTUVWXYZ1234567890"; break; case "6":$str = "abcdefghijklmnopqrstuvwxyz1234567890"; break; default:$str = "ABCDEFGHIJKLMNOPQRSTUVWXYZabcdefghijklmnopqrstuvwxyz1234567890"; break;}$result = "";$l = strlen($str);for($i = 0;$i < $length;$i ++){ $num = rand(0, $l); $result .= $str[$num];}return $result;}}PHP代码:--------------------------------------------------------------------------------/*作用:取得客户端信息参数:返回:指定的资料使用:$code = new clientGetObj;1、浏览器:$str = $code->getBrowse();2、IP地址:$str = $code->getIP();4、操作系统:$str = $code->getOS();*/class clientGetObj{function getBrowse(){global $_SERVER;$Agent = $_SERVER["HTTP_USER_AGENT"];$browser = "";$browserver = "";$Browser = array("Lynx", "MOSAIC", "AOL", "Opera", "JAVA", "MacWeb", "WebExplorer", "OmniWeb");for($i = 0; $i <= 7; $i ++){ if(strpos($Agent, $Browsers[$i])){$browser = $Browsers[$i];$browserver = ""; }}if(ereg("Mozilla", $Agent) && !ereg("MSIE", $Agent)){ $temp = explode("(", $Agent); $Part = $temp[0]; $temp = explode("/", $Part); $browserver = $temp[1]; $temp = explode(" ", $browserver); $browserver = $temp[0]; $browserver = preg_replace("/([d.]+)/", "1", $browserver); $browserver = $browserver; $browser = "Netscape Navigator";}if(ereg("Mozilla", $Agent) && ereg("Opera", $Agent)) { $temp = explode("(", $Agent); $Part = $temp[1]; $temp = explode(")", $Part); $browserver = $temp[1]; $temp = explode(" ", $browserver); $browserver = $temp[2]; $browserver = preg_replace("/([d.]+)/", "1", $browserver); $browserver = $browserver; $browser = "Opera";}if(ereg("Mozilla", $Agent) && ereg("MSIE", $Agent)){ $temp = explode("(", $Agent); $Part = $temp[1]; $temp = explode(";", $Part); $Part = $temp[1]; $temp = explode(" ", $Part); $browserver = $temp[2]; $browserver = preg_replace("/([d.]+)/","1",$browserver); $browserver = $browserver; $browser = "Internet Explorer";}if($browser != ""){ $browseinfo = $browser." ".$browserver;} else { $browseinfo = false;}return $browseinfo;}function getIP (){global $_SERVER;if (getenv("HTTP_CLIENT_IP")) { $ip = getenv("HTTP_CLIENT_IP");} else if (getenv("HTTP_X_FORWARDED_FOR")) { $ip = getenv("HTTP_X_FORWARDED_FOR");} else if (getenv("REMOTE_ADDR")) { $ip = getenv("REMOTE_ADDR");} else { $ip = $_SERVER["REMOTE_ADDR"];}return $ip;}function getOS (){global $_SERVER;$agent = $_SERVER["HTTP_USER_AGENT"];$os = false;if (eregi("win", $agent) && strpos($agent, "95")){ $os = "Windows 95";}else if (eregi("win 9x", $agent) && strpos($agent, "4.90")){ $os = "Windows ME";}else if (eregi("win", $agent) && ereg("98", $agent)){ $os = "Windows 98";}else if (eregi("win", $agent) && eregi("nt 5.1", $agent)){ $os = "Windows XP";}else if (eregi("win", $agent) && eregi("nt 5", $agent)){ $os = "Windows 2000";}else if (eregi("win", $agent) && eregi("nt", $agent)){ $os = "Windows NT";}else if (eregi("win", $agent) && ereg("32", $agent)){ $os = "Windows 32";}else if (eregi("linux", $agent)){ $os = "Linux";}else if (eregi("unix", $agent)){ $os = "Unix";}else if (eregi("sun", $agent) && eregi("os", $agent)){ $os = "SunOS";}else if (eregi("ibm", $agent) && eregi("os", $agent)){ $os = "IBM OS/2";}else if (eregi("Mac", $agent) && eregi("PC", $agent)){ $os = "Macintosh";}else if (eregi("PowerPC", $agent)){ $os = "PowerPC";}else if (eregi("AIX", $agent)){ $os = "AIX";}else if (eregi("HPUX", $agent)){ $os = "HPUX";}else if (eregi("NetBSD", $agent)){ $os = "NetBSD";}else if (eregi("BSD", $agent)){ $os = "BSD";}else if (ereg("OSF1", $agent)){ $os = "OSF1";}else if (ereg("IRIX", $agent)){ $os = "IRIX";}else if (eregi("FreeBSD", $agent)){ $os = "FreeBSD";}else if (eregi("teleport", $agent)){ $os = "teleport";}else if (eregi("flashget", $agent)){ $os = "flashget";}else if (eregi("webzip", $agent)){ $os = "webzip";}else if (eregi("offline", $agent)){ $os = "offline";}else {$os = "Unknown";}return $os;}}PHP代码:--------------------------------------------------------------------------------class cnStrObj{function substrGB ($str = "", $start = "", $len = ""){ if($start == 0 $start == ""){ $start = 1;}if($str == "" $len == ""){ return false;}for($i = 0; $i < $start + $len; $i ++){ $tmpstr = (ord($str[$i]) >= 161 && ord($str[$i]) <= 247&& ord($str[$i+1]) >= 161 && ord($str[$i+1]) <= 254)?$str[$i].$str[++$i]:$tmpstr = $str[$i]; if ($i >= $start && $i < ($start + $len)) {$tmp .=$tmpstr; }} return $tmp; }function isGB ($str){$strLen = strlen($str);$length = 1;for($i = 0; $i < $strLen; $i ++) { $tmpstr = ord(substr($str, $i, 1)); $tmpstr2 = ord(substr($str, $i+1, 1)); if(($tmpstr <= 161 $tmpstr >= 247) && ($tmpstr2 <= 161 $tmpstr2 >= 247)){$legalflag = false; } else {$legalflag = true; }}return $legalflag;}}PHP代码:--------------------------------------------------------------------------------<?php/***************************************** Filename.......: class.smtp.inc** Project........: SMTP Class** Version........: 1.00b** Last Modified..: 30 September 2001***************************************/define("SMTP_STATUS_NOT_CONNECTED", 1, TRUE);define("SMTP_STATUS_CONNECTED", 2, TRUE);class smtp{var $connection;var $recipients;var $headers;var $timeout;var $errors;var $status;var $body;var $from;var $host;var $port;var $helo;var $auth;var $user;var $pass;/***************************************** Constructor function. Arguments:** $params - An assoc array of parameters:**** host- The hostname of the smtp serverDefault: localhost** port- The port the smtp server runs onDefault: 25** helo- What to send as the HELO commandDefault: localhost**(typically the hostname of the**machine this script runs on)** auth- Whether to use basic authenticationDefault: FALSE** user- Username for authentication Default: <blank>** pass- Password for authentication Default: <blank>** timeout - The timeout in seconds for the callDefault: 5**to fsockopen()***************************************/function smtp($params = array()){ if(!defined("CRLF"))define("CRLF", " ", TRUE); $this->timeout= 5; $this->status= SMTP_STATUS_NOT_CONNECTED; $this->host= "localhost"; $this->port= 25; $this->helo= "localhost"; $this->auth= FALSE; $this->user= ""; $this->pass= ""; $this->errors = array(); foreach($params as $key => $value){$this->$key = $value; }}/***************************************** Connect function. This will, when called** statically, create a new smtp object, ** call the connect function (ie this function)** and return it. When not called statically,** it will connect to the server and send** the HELO command.***************************************/function connect($params = array()){ if(!isset($this->status)){$obj = new smtp($params);if($obj->connect()){$obj->status = SMTP_STATUS_CONNECTED;}return $obj; }else{$this->connection = fsockopen($this->host, $this->port, $errno, $errstr, $this->timeout);socket_set_timeout($this->connection, 0, 250000);$greeting = $this->get_data();if(is_resource($this->connection)){return $this->auth ? $this->ehlo() : $this->helo();}else{$this->errors[] = "Failed to connect to server: ".$errstr;return FALSE;} }}/***************************************** Function which handles sending the mail.** Arguments:** $params- Optional assoc array of parameters.** Can contain:** recipients - Indexed array of recipients** from- The from address. (used in MAIL FROM<img src="images/smilies/smile.gif" border="0" alt="">,**this will be the return path** headers- Indexed array of headers, one header per array entry** body- The body of the email** It can also contain any of the parameters from the connect()** function***************************************/function send($params = array()){ foreach($params as $key => $value){$this->set($key, $value); } if($this->is_connecte
2023-07-31 07:37:531

怎样下载Flash?

首先,如果你用GreenBrowser或者Maxthon(遨游)浏览器的话,他们都已经自带flash下载工具了!※Flash的SWF文件的搜寻和下载几种方法介绍:※【一、查看源代码】 当浏览网页见到喜欢的Flash时,点击右键,在右键菜单中选择“查看源文件”(或点击“查看”菜单中的“源文件”),记事本就带着密密麻麻的源代码显示在面前。点击菜单“工具/查找”(或按下快捷键“Ctrl+F”),在弹出的对话框中输入“.SWF”,即可查找到Flash的SWF文件,复制下载链接地址,注意看是绝对链接还是相对链接。打开下载工具软件FlashGet或者NetAnts,粘贴链接地址URL就可以轻松地下载这个SWF文件了。【二、利用全屏欣赏的URL】有很多网站为了方便网友看Flash作品,常常提供了全屏欣赏,这种方式也是下载最方便的了,只要直接在链接上按鼠标的右键,选择“复制快捷方式”,然后到下载工具上粘贴地址链接URL就可以了。一些具有在IE中添加右键功能的下载工具就更简单了,如下载软件FlashGet,在链接上按鼠标右键,直接选择“使用网际快车下载”,这个Flash作品就乖乖地归到硬盘上去了。【三、在本机的临时文件夹中查找】当你看过一个Flash后,IE便会自动将它存到临时文件夹中——C: \Windows\Temporary Internet Files——注意,这是针对Win98而言。然后查询其中的.SWF文件,很快,所有的Flash文件都显示在眼前,只要把它们全部Copy到另外的目录,然后自己慢慢挑吧。不过你首先要注意的是你的IE 所放临时文件夹的大小,如果太小,或许Flash动画就不会被记录,如果你根本取消了IE临时文件夹,那么这个方法并不适合你。在Win2000中却不同,因为它根据不同用户设置了不同的各种参数,包括上网的记录,我们必须到以下的目录来查找: 操作系统盘\Documents and Settings\Administrator\Local Settings\Temporary Internet Files 或者: 操作系统盘Documents and SettingsDefault User\Local Settings\Temporary Internet Files 这是一种较为简单的方法,并且无需装任何新软件。【四、利用软件进行查找】虽然在浏览的时候SWF文件已经存在本机的临时文件夹里了,但是在这个文件夹里文件非常多,而且在你不知道名字的情况下,寻找SWF可是要费一番周折的。不要紧,有了Flash JESTER WOOF,我们的工作就变得轻松多了,它可以在本地路径、IE浏览器的缓存文件夹里检索并预览SWF文件,为我们节省了大量的时间。工具的使用很简单,在屏幕左面“WOOF”图标下的查找路径里可以定义本地路径或是IE的缓存文件夹,然后在“Media type”(媒体格式)里选择想检索的媒体文件类型,按下查找按钮就可以了。Flash JESTER WOOF支持三种媒体类型: Flash格式,也就是标准的SWF格式; RealPlayer格式文件; JPEG格式。定义本地查找的时候点击“Search path”右面的文件夹图标就可以选择驱动器或文件夹。最方便的地方就是左下角的预览窗口,大家想一想,如果我们看过的SWF文件成千上万,一个一个地打开观看内容简直要累死,有了预览这个功能,搜索后直接点击右面的文件,下面的预览窗口里就显示SWF文件的内容。另外还支持鼠标右键功能,选择全部、复制、删除、打开和重命名等等,十分简捷方便。【五、利用脱机浏览软件进行下载】现在网上有很多脱机浏览软件,可以把整个网站搬回家,如 TeleportPro、WebZip等应用软件。其独特的搜索功能,对于Flash的下载也大有帮助。选择下载Flash源代码的格式fla和文件格式SWF,就可以轻松地把Flash搬回家了。
2023-07-31 07:38:016

php 怎么获取浏览器的类型?

获取客户端浏览器、IP地址操作系统类型等的方法(PHP) ========================= 获取客户端信息(浏览器、IP、OS) <?php /* 作用:取得客户端信息 参数: 返回:指定的资料 使用: $code = new clientGetObj; 1、浏览器:$str = $code->getBrowse(); 2、IP地址:$str = $code->getIP(); 4、操作系统:$str = $code->getOS(); */ class clientGetObj { function getBrowse() { global $_SERVER; $Agent = $_SERVER["HTTP_USER_AGENT"]; $browser = ""; $browserver = ""; $Browser = array("Lynx", "MOSAIC", "AOL", "Opera", "JAVA", "MacWeb", "WebExplorer", "OmniWeb"); for($i = 0; $i <= 7; $i ++){ if(strpos($Agent, $Browsers[$i])){ $browser = $Browsers[$i]; $browserver = ""; } } if(ereg("Mozilla", $Agent) && !ereg("MSIE", $Agent)){ $temp = explode("(", $Agent); $Part = $temp[0]; $temp = explode("/", $Part); $browserver = $temp[1]; $temp = explode(" ", $browserver); $browserver = $temp[0]; $browserver = preg_replace("/([d.]+)/", "1", $browserver); $browserver = $browserver; $browser = "Netscape Navigator"; } if(ereg("Mozilla", $Agent) && ereg("Opera", $Agent)) { $temp = explode("(", $Agent); $Part = $temp[1]; $temp = explode(")", $Part); $browserver = $temp[1]; $temp = explode(" ", $browserver); $browserver = $temp[2]; $browserver = preg_replace("/([d.]+)/", "1", $browserver); $browserver = $browserver; $browser = "Opera"; } if(ereg("Mozilla", $Agent) && ereg("MSIE", $Agent)){ $temp = explode("(", $Agent); $Part = $temp[1]; $temp = explode(";", $Part); $Part = $temp[1]; $temp = explode(" ", $Part); $browserver = $temp[2]; $browserver = preg_replace("/([d.]+)/","1",$browserver); $browserver = $browserver; $browser = "Internet Explorer"; } if($browser != ""){ $browseinfo = $browser." ".$browserver; } else { $browseinfo = false; } return $browseinfo; } function getIP () { global $_SERVER; if (getenv("HTTP_CLIENT_IP")) { $ip = getenv("HTTP_CLIENT_IP"); } else if (getenv("HTTP_X_FORWARDED_FOR")) { $ip = getenv("HTTP_X_FORWARDED_FOR"); } else if (getenv("REMOTE_ADDR")) { $ip = getenv("REMOTE_ADDR"); } else { $ip = $_SERVER["REMOTE_ADDR"]; } return $ip; } function getOS () { global $_SERVER; $agent = $_SERVER["HTTP_USER_AGENT"]; $os = false; if (eregi("win", $agent) && strpos($agent, "95")){ $os = "Windows 95"; } else if (eregi("win 9x", $agent) && strpos($agent, "4.90")){ $os = "Windows ME"; } else if (eregi("win", $agent) && ereg("98", $agent)){ $os = "Windows 98"; } else if (eregi("win", $agent) && eregi("nt 5.1", $agent)){ $os = "Windows XP"; } else if (eregi("win", $agent) && eregi("nt 5", $agent)){ $os = "Windows 2000"; } else if (eregi("win", $agent) && eregi("nt", $agent)){ $os = "Windows NT"; } else if (eregi("win", $agent) && ereg("32", $agent)){ $os = "Windows 32"; } else if (eregi("linux", $agent)){ $os = "Linux"; } else if (eregi("unix", $agent)){ $os = "Unix"; } else if (eregi("sun", $agent) && eregi("os", $agent)){ $os = "SunOS"; } else if (eregi("ibm", $agent) && eregi("os", $agent)){ $os = "IBM OS/2"; } else if (eregi("Mac", $agent) && eregi("PC", $agent)){ $os = "Macintosh"; } else if (eregi("PowerPC", $agent)){ $os = "PowerPC"; } else if (eregi("AIX", $agent)){ $os = "AIX"; } else if (eregi("HPUX", $agent)){ $os = "HPUX"; } else if (eregi("NetBSD", $agent)){ $os = "NetBSD"; } else if (eregi("BSD", $agent)){ $os = "BSD"; } else if (ereg("OSF1", $agent)){ $os = "OSF1"; } else if (ereg("IRIX", $agent)){ $os = "IRIX"; } else if (eregi("FreeBSD", $agent)){ $os = "FreeBSD"; } else if (eregi("teleport", $agent)){ $os = "teleport"; } else if (eregi("flashget", $agent)){ $os = "flashget"; } else if (eregi("webzip", $agent)){ $os = "webzip"; } else if (eregi("offline", $agent)){ $os = "offline"; } else { $os = "Unknown"; } return $os; } } ?> 获取IP地址 说明:使用 Request.ServerVariables("REMOTE_ADDR") 来取得客户端的 IP 地址,但如果客户端是使用代理服务器来访问,那取到的就是代理服务器的 IP 地址,而不是真正的客户端 IP 地址。要想透过代理服务器取得客户端的真实IP 地址,就要使用Request.ServerVariables("HTTP_X_FORWARDED_FOR") 来读取。不过要注意的事,并不是每个代理服务器都能用 Request.ServerVariables("HTTP_X_FORWARDED_FOR") 来读取客户端的真实 IP,有些用此方法读取到的仍然是代理服务器的 IP。   还有一点需要注意的是:如果客户端没有通过代理服务器来访问,那么用 Request.ServerVariables("HTTP_X_FORWARDED_FOR") 取到的值将是空的。因此,如果要在程序中使用此方法,可以这样处理: ...... userip = Request.ServerVariables("HTTP_X_FORWARDED_FOR") If userip = "" Then userip = Request.ServerVariables("REMOTE_ADDR") ...... 即:如果客户端通过代理服务器,则取 HTTP_X_FORWARDED_FOR 的值,如果没通过代理服务器,就取 REMOTE_ADDR 的值。 方法一: function real_ip($type) { if ($_SERVER["HTTP_X_FORWARDED_FOR"]) { if ($_SERVER["HTTP_CLIENT_IP"]) { $proxy = $_SERVER["HTTP_CLIENT_IP"]; } else { $proxy = $_SERVER["REMOTE_ADDR"]; } $ip = $_SERVER["HTTP_X_FORWARDED_FOR"]; } else { if ($_SERVER["HTTP_CLIENT_IP"]) { $ip = $_SERVER["HTTP_CLIENT_IP"]; } else { $ip = $_SERVER["REMOTE_ADDR"]; } } if($type=="ip")return $ip; if($type=="proxy")return $proxy; } 方法二: <? function iptype1 () { if (getenv("HTTP_CLIENT_IP")) { ?return getenv("HTTP_CLIENT_IP"); } else { ?return "none"; } } function iptype2 () { if (getenv("HTTP_X_FORWARDED_FOR")) { ?return getenv("HTTP_X_FORWARDED_FOR"); } else { ?return "none"; } } function iptype3 () { if (getenv("REMOTE_ADDR")) { ?return getenv("REMOTE_ADDR"); } else { ?return "none"; } } function ip() { $ip1 = iptype1(); $ip2 = iptype2(); $ip3 = iptype3(); if (isset($ip1) && $ip1 != "none" && $ip1 != "unknown") { ?return $ip1; } elseif (isset($ip2) && $ip2 != "none" && $ip2 != "unknown") { ?return $ip2; } elseif (isset($ip3) && $ip3 != "none" && $ip3 != "unknown") { ?return $ip3; }? else { return "none"; } } Echo ip(); ?> 方法三: 01 : function ipCheck() { 02 : if (getenv( "HTTP_CLIENT_IP" )) { 03 : $ip = getenv( "HTTP_CLIENT_IP" ); 04 : } 05 : elseif (getenv( "HTTP_X_FORWARDED_FOR" )) { 06 : $ip = getenv( "HTTP_X_FORWARDED_FOR" ); 07 : } 08 : elseif (getenv( "HTTP_X_FORWARDED" )) { 09 : $ip = getenv( "HTTP_X_FORWARDED" ); 10 : } 11 : elseif (getenv( "HTTP_FORWARDED_FOR" )) { 12 : $ip = getenv( "HTTP_FORWARDED_FOR" ); 13 : } 14 : elseif (getenv( "HTTP_FORWARDED" )) { 15 : $ip = getenv( "HTTP_FORWARDED" ); 16 : } 17 : else { 18 : $ip = $_SERVER[ "REMOTE_ADDR" ]; 19 : } 20 : return $ip; 21 : }
2023-07-31 07:38:313

php如何获取客户端信息

用于获取用户客户端信息(推荐学习:PHP视频教程)<?phpclass userPCInfo{//获取客户端浏览器public static function get_client_browser(){ $sys = $_SERVER["HTTP_USER_AGENT"]; //获取用户代理字符串 if (stripos($sys, "Firefox/") > 0) { preg_match("/Firefox/([^;)]+)+/i", $sys, $b); $exp[0] = "Firefox"; $exp[1] = $b[1]; //获取火狐浏览器的版本号 } elseif (stripos($sys, "Maxthon") > 0) { preg_match("/Maxthon/([d.]+)/", $sys, $aoyou); $exp[0] = "傲游"; $exp[1] = $aoyou[1]; } elseif (stripos($sys, "MSIE") > 0) { preg_match("/MSIEs+([^;)]+)+/i", $sys, $ie); $exp[0] = "IE"; $exp[1] = $ie[1]; //获取IE的版本号 } elseif (stripos($sys, "OPR") > 0) { preg_match("/OPR/([d.]+)/", $sys, $opera); $exp[0] = "Opera"; $exp[1] = $opera[1]; } elseif(stripos($sys, "Edge") > 0) { //win10 Edge浏览器 添加了chrome内核标记 在判断Chrome之前匹配 preg_match("/Edge/([d.]+)/", $sys, $Edge); $exp[0] = "Edge"; $exp[1] = $Edge[1]; } elseif (stripos($sys, "Chrome") > 0) { preg_match("/Chrome/([d.]+)/", $sys, $google); $exp[0] = "Chrome"; $exp[1] = $google[1]; //获取google chrome的版本号 } elseif(stripos($sys,"rv:")>0 && stripos($sys,"Gecko")>0){ preg_match("/rv:([d.]+)/", $sys, $IE); $exp[0] = "IE"; $exp[1] = $IE[1]; }else { $exp[0] = "未知浏览器"; $exp[1] = ""; } return $exp;}//获取客户端操作系统public static function get_client_os(){ $agent = $_SERVER["HTTP_USER_AGENT"]; $os = false; if (preg_match("/win/i", $agent) && strpos($agent, "95")){ $os = "Windows 95"; }else if (preg_match("/win 9x/i", $agent) && strpos($agent, "4.90")){ $os = "Windows ME"; }else if (preg_match("/win/i", $agent) && preg_match("/98/i", $agent)){ $os = "Windows 98"; }else if (preg_match("/win/i", $agent) && preg_match("/nt 6.0/i", $agent)){ $os = "Windows Vista"; }else if (preg_match("/win/i", $agent) && preg_match("/nt 6.1/i", $agent)){ $os = "Windows 7"; }else if (preg_match("/win/i", $agent) && preg_match("/nt 6.2/i", $agent)){ $os = "Windows 8"; }else if(preg_match("/win/i", $agent) && preg_match("/nt 10.0/i", $agent)){ $os = "Windows 10";#添加win10判断 }else if (preg_match("/win/i", $agent) && preg_match("/nt 5.1/i", $agent)){ $os = "Windows XP"; }else if (preg_match("/win/i", $agent) && preg_match("/nt 5/i", $agent)){ $os = "Windows 2000"; }else if (preg_match("/win/i", $agent) && preg_match("/nt/i", $agent)){ $os = "Windows NT"; }else if (preg_match("/win/i", $agent) && preg_match("/32/i", $agent)){ $os = "Windows 32"; }else if (preg_match("/linux/i", $agent)){ $os = "Linux"; }else if (preg_match("/unix/i", $agent)){ $os = "Unix"; }else if (preg_match("/sun/i", $agent) && preg_match("/os/i", $agent)){ $os = "SunOS"; }else if (preg_match("/ibm/i", $agent) && preg_match("/os/i", $agent)){ $os = "IBM OS/2"; }else if (preg_match("/Mac/i", $agent) && preg_match("/PC/i", $agent)){ $os = "Macintosh"; }else if (preg_match("/PowerPC/i", $agent)){ $os = "PowerPC"; }else if (preg_match("/AIX/i", $agent)){ $os = "AIX"; }else if (preg_match("/HPUX/i", $agent)){ $os = "HPUX"; }else if (preg_match("/NetBSD/i", $agent)){ $os = "NetBSD"; }else if (preg_match("/BSD/i", $agent)){ $os = "BSD"; }else if (preg_match("/OSF1/i", $agent)){ $os = "OSF1"; }else if (preg_match("/IRIX/i", $agent)){ $os = "IRIX"; }else if (preg_match("/FreeBSD/i", $agent)){ $os = "FreeBSD"; }else if (preg_match("/teleport/i", $agent)){ $os = "teleport"; }else if (preg_match("/flashget/i", $agent)){ $os = "flashget"; }else if (preg_match("/webzip/i", $agent)){ $os = "webzip"; }else if (preg_match("/offline/i", $agent)){ $os = "offline"; }else{ $os = "未知操作系统"; } return $os;}//获取ip地址public static function get_ip() { //判断服务器是否允许$_SERVER if (isset($_SERVER)) { if (isset($_SERVER["HTTP_X_FORWARDED_FOR"])) { $realip = $_SERVER["HTTP_X_FORWARDED_FOR"]; } elseif (isset($_SERVER["HTTP_CLIENT_IP"])) { $realip = $_SERVER["HTTP_CLIENT_IP"]; } else { $realip = $_SERVER["REMOTE_ADDR"]; } } else { //不允许就使用getenv获取 if (getenv("HTTP_X_FORWARDED_FOR")) { $realip = getenv("HTTP_X_FORWARDED_FOR"); } elseif (getenv("HTTP_CLIENT_IP")) { $realip = getenv("HTTP_CLIENT_IP"); } else { $realip = getenv("REMOTE_ADDR"); } } return $realip;}//获取当前ip所在城市public static function GetIpLookup($ip = ""){ if(empty($ip)){ return "请输入IP地址"; } $test= "http://ip.taobao.com/service/getIpInfo.php?ip=".$ip; $res = @file_get_contents($test); return $res;}}
2023-07-31 07:38:391

如何隐藏html中的文字和链接

做成图片。或者用iframe试试JS搜索引擎也是可以识别的,GOOGLE就可以,百度应该也会可以的<html><head><script>function clear() {Source=document.body.firstChild.data;document.open();document.close();document.body.innerHTML=Source;}</script></head><body onload=clear()> Test</body></html>------------------隐藏网页源代码方法汇总1、将以下代码加入到HEML的<body></body>之间<SCRIPT language=javascript> function click() {if (event.button==2) {alert("不许你偷看!");}}document.onmousedown=click </SCRIPT> .................................................................  2、禁止查看网页源代码  真正能实现源代码屏蔽的单纯的.htm是不可能的!想看源代码是没办法阻止的。用TELEPROT可以下载任何文件,相当于做镜像网站, 除非服务器进行安全设置、加密。 下面给几种参考方法,使在浏览我的个人主页时不能使用右键或者不能看到源程序或源代码等。  1)在主页上输入代码:<SCRIPT language=javascript> function click() { if (event.button==2) { alert("对不起,禁止使用此功能^_^.") } } document.onmousedown=click </SCRIPT> <script language="JavaScript"> <!-- locate = 0; function scroller() { if (locate !=500 ) { locate++; scroll(0,locate); clearTimeout(timer); var timer = setTimeout("scroller()",3); timer; } } // --> </script>  2)网页安全技术指南  随着Internet的飞速发展,网站的数量正呈几何级速度递增,网页上的信息极大丰富,但网站的安全与信息的版权却不断受到威胁.近来,全球各大网站先后遭到黑客攻击,接着,为了顺应新形势,国内首家有关网络安全专题诞生了.网站与网页的安全性受到越来越多的关注,本文将由浅入深地介绍关于加强网页安全性的各种技术和技巧,对关心网页源代码版权和网页数据安全保护的读者有较大的帮助.  初级入门篇  对广大网页编写者来说,对源代码的保护是最为关注的,但往往却没有任何办法.辛辛苦苦编写的网页在浏览者面前毫无遮掩,只要被别人轻轻点击鼠标右键,选择(查看源代码)一项后,即可获得网页完全代码,甚至稍加修改后就成为他人的网页.本篇将通过采用JavaScript技术,对页面源代码的修改,使浏览者无法获得源码,达到保护代码的目的.  首先,应屏蔽Internet Explorer工具栏中-查看-源代码一项的功能,即将页面采用框架结构的方式.若你的页面并未使用框架结构,且不需使用框架结构,可使用"零框架"技术(即将页面分为左右两帧,左帧的宽度为1,右帧为原页面).该方法的代码如下:<html> <head> <title>欢迎光临网页教学网</TITLE> </HEAD> <FRAMESET COLS="1,*" frameborder=0 framespacing=0> <FRAME SRC="PS.HTM" NAME="count" noresize scrolling=no> <FRAME SRC="search.HTM" NAME="search" noresize> </frameset> </html>  将该文件存为主文件index.htm,建立一空文件ps.htm,原页面文件现另存为index.html(与主文件名仅在扩展名上略有不同).采用零框架技术有以下优点:  1.浏览者在用工具栏中的源代码项无法直接得到页面代码,仅能得到框架主文件的代码(即上述代码).  2.可利用左帧文件ps.htm加载一些网页的高级应用,如背景音乐,网页计数器,cookie应用等.  其次,应屏蔽鼠标右键的显示源文件功能,即在所需保护的页面文件(上例中为index.html文件)中加入以下代码:(当右键被点击时将出现图1所示提示框)<script Language="JavaScript"> function click() { if (event.button==2||event.button==3) {alert(""用右键要干嘛?"^_^") }} //引号中提示可自定义 document.onmousedown=click </script>  最后,为防止一些了解网页编写语言的人通过框架主文件中的连接手工找出被保护页面后获得源代码,还应在被保护页面中加入以下代码:<script language="javascript"> if(top==self)top.location="index.html" </script>  这段代码将提供跳回功能,使浏览器无法直接看到该页,而是自动跳回框架主文件index.html,起到保护该页面的作用.  在完成以上三个步骤,对你的主页按照框架结构进行了修改后,你的主页源代码将不能被浏览者在网上获得,可以小小庆贺一下了  另外,若你确实不想用框架页面,那么可用特殊的方法打开浏览器新窗口,再结合屏蔽鼠标的功能代码后亦可收到同样的效果,打开方法如下:<a href=javascript:window.open("key.html","被保护页面的标题","height=170,width=290,left=0,top=0,toolbar=0,location=0,directories=0,status=0,menubar=0,scrollbars=0,resizable=0,copyhistory=0") target=_blank>打开被保护页面的连接</a>  代码中,key.html为被保护页面的文件名.新窗口的高度height与宽度width的值可由用户自定义,单位为像素.  注意:嵌入式的 JavaScript代码应加在原文件的<head></head>元素区内.  中级深入篇  上篇中是采用JavaScript技术达到保护在线网页的目的.正所谓"强中自有强中手",有些人使用Webzip,TelePro,Offline等离线浏览器下载你的主页,就可绕过JavaScript保护在线网页的防线,将网页下载后再慢慢剖析.有矛必有盾,你亦可用JavaScript建立的动态转向文件是大多数离线浏览器无法下载你的网页,方法如下.你可将上例中的被保护页面更名为index1.html,而将文件index.html改为以下代码:<script> window.location.replace("index1.html") //本句产生网页跳转功能 </script>  对Internet Explorer5新增的离线浏览功能(脱机工作),以上方法有时失灵,可通过对网页设置cookie的高级技术达到保护的目的.一旦cookie超期,即使网页已被下载到本机也无法浏览,呵呵,厉害吧:)  应加入文件中的cookie代码段如下:<script language="JavaScript"> function getCookieVal (offset) { var endstr = document.cookie.indexOf (";", offset); if (endstr == -1) endstr = document.cookie.length; return unescape(document.cookie.substring(offset, endstr)); } function GetCookie (name) { var arg = name + "="; var alen = arg.length; var clen = document.cookie.length; var i = 0; while (i < clen) { var j = i + alen; if (document.cookie.substring(i, j) == arg) return getCookieVal (j); i = document.cookie.indexOf(" ", i) + 1; if (i == 0) break; } return null; } function SetCookie (name, value) { var argv = SetCookie.arguments; var argc = SetCookie.arguments.length; var expires = (2 < argc) ? argv[2] : true; var path = (3 < argc) ? argv[3] : true; var domain = (4 < argc) ? argv[4] : true; var secure = (5 < argc) ? argv[5] : true; //安全模式生效 document.cookie = name + "=" + escape (value) + ((expires == null) ? "" : ("; expires=" + expires.toGMTString())) + ((path == null) ? "" : ("; path=" + path)) + ((domain == null) ? "" : ("; domain=" + domain)) + ((secure == true) ? "; secure" : ""); } function ResetCounts(name) { visits = 0; SetCookie(expdate , "/", true, true); location.reload(); } </script> <script language="JavaScript"> var expdate = new Date(); var visits; expdate.setTime(expdate.getTime() + (24*60*60 * 1000)); //COOKIES超期时间设置,此处为1天 if(!(visits = GetCookie("visits"))) visits = 0; visits++; SetCookie(expdate, "/", true, true); </script>  如果你已经做到这一步了,那么你的网页所受到的保护就不再是常规意义上的出于道德观念或版权意识,而是真正的技术上的保护手段.  高级研究篇  对网页的保护并不仅仅是涉及源代码的保护,更应该包含对网页数据或网络数据库的保护.对网络数据库的保护可采用基于IIS的CGI接口的认证程序,SQL的安全技术,ASP安全认证程序,Java Applet安全认证程序等手段,属于更高层次的安全措施,包含大量内容,本文不作介绍.本篇将介绍应用JavaScript技术构造的页面认证接口.将仅供有限人群访问的需要数据保护的页面中加入以下代码:<script LANGUAGE="JAVASCRIPT"> <!-- loopy() function loopy() { var sWord ="" while (sWord != "hibow") { sWord = prompt("输入正确密码登陆! ") } alert("身份识别......允许登陆") } //--> </script>  注意:嵌入式的 JavaScript代码应加在原文件的<head></head>元素区内.  代码中字段sWord的值hibow为登陆被保护页面的密码.你可将自定义的密码告诉允许访问该页面的用户,仅当密码被正确输入后浏览者才可看见页面内容,否则将循环停留在密码登入框中(见图2),进不去喽  为了达到保护页面源代码及数据的最佳效果,可将本文介绍的所有方法相结合,这就要考验大家的悟性和能力了。  这样是锁不住代码的,只要先点左健不放,再点右健,在放左建,就能看了,如果你的主页是用ASP,PHP,或者CGI购建的,一般对方是看不到源代码的。防右键的方法已经过时了 还有一个办法就是把回车全去掉,把整个文件压缩。这样看到也看不清楚, 还不影响动行
2023-07-31 07:38:461

请教高手如何把网站扒下来

哦!!我用过!!WebZip 7.03 简体中文汉化注册破解版软件简介:把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。http://www.xfbbs.com/Softdown/software.asp?id=7416离线浏览助理Webdup V1.02Webdup能够把您想要浏览的信息(如网页和图片等) 预先下载下来,保存在本地硬盘,使您可以从本地进行离线浏览,这样不仅可以大大减少上网时间,降低上网费用,还可以加快浏览速度;并且将来无须上网就可以很方便地查阅这些信息。不仅如此, Webdup更提供了备份历次下载记录和比较完善的管理功能,使您能够方便地分类保存和管理有价值的下载信息。 Webdup的当前版本实现了以下功能: 1.支持HTTP和FTP下载,并支持HTTP和Socks5代理服务器; 2.支持多线程下载; 3.支持断点续传; 4.可按URL和文件后缀名设置过滤,只下载所需文件; 5.自动识别下载过的文件是否更新过,减少重复下载; 6.可设置定时下载和定时停止; 7.支持自动拨号和自动挂断; 8.可导出和导入项目文件,方便用户交换网上资源; 9.提供与浏览器(IE)的整合,方便快速地创建项目; 10.支持项目和类别的拖拽操作,方便用户分类管理项目; 11.能自动识别操作系统的语言,按需显示中文或英文。 http://it.dv9.cn/softd/s/?kz=464#downA
2023-07-31 07:38:533

请问如何批量下载某网站固定目录下的特定文件

如果是有链接的下载,用迅雷的批量下载,不过我觉得楼主的意思是要下载某网站目录下的文件.用浏览器的文件--保存,如果不行,推荐使用webzip这个软件WebZIP是著名的离线浏览器软件,在它的帮助下你能够完整下载网站的内容,或者你也可以选择自行设置下载的层数、文件类型、网页与媒体文件的定位以及网址过滤器,以便按己所需地获取网站内容。你下载到本地硬盘中的网站内容将仍保持原本的HTML格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。现在使用WebZIP中新的FAR插件工具,你可以把下载的内容制作成HTML-帮助文件(.chm)。你也可以把抓取的网站内容压缩为ZIP文件。
2023-07-31 07:39:123

请问如何批量下载某网站固定目录下的特定文件

如果是有链接的下载,用迅雷的批量下载,不过我觉得楼主的意思是要下载某网站目录下的文件.用浏览器的文件--保存,如果不行,推荐使用webzip这个软件WebZIP是著名的离线浏览器软件,在它的帮助下你能够完整下载网站的内容,或者你也可以选择自行设置下载的层数、文件类型、网页与媒体文件的定位以及网址过滤器,以便按己所需地获取网站内容。你下载到本地硬盘中的网站内容将仍保持原本的HTML格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。现在使用WebZIP中新的FAR插件工具,你可以把下载的内容制作成HTML-帮助文件(.chm)。你也可以把抓取的网站内容压缩为ZIP文件。
2023-07-31 07:39:191

怎么能快速浏览网站上的图

用以下软件试一下: 1. WebZip 7.03 中文语言包 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 2. 网站全额下载器 2002 “网站全额下载器”是一个离线浏览的最佳工具。只要几分钟就可以将一个网站全部下载。包括网站内的图片、文字、程序、软件.....等。所以这也是研究别人网站的最好帮手。 3. WebZip 7.0.3 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 4. 离线浏览助理Webdup 0.93 Beta Webdup能够把您想要浏览的信息(如网页和图片等)预先下载下来,保存在本地硬盘,使您可以从本地进行离线浏览,这样不仅可以大大减少上网时间,降低上网费用,还可以加快浏览速度;并且将来无须上网就可以很方便地查阅这些信息。不仅如此, Webdup更提供了备份历次下载记录和比较完善的管理功能,使您能够方便地分类保存和管理有价值的下载信息。 Webdup的当前版本实现了以下功能:1.支持HTTP和FTP下载,并支持HTTP和Socks5代理服务器;2.支持多线程下载;3.支持断点续传;4.可按URL和文件后缀名设置过滤,只下载所需文件;5.自动识别下载过的文件是否更新过,减少重复下载;6.可设置定时下载和定时停止;7.支持自动拨号和自动挂断;8.可导出和导入项目文件,方便用户交换网上资源;9.提供与浏览器(IE)的整合,方便快速地创建项目;10.支持项目和类别的拖拽操作,方便用户分类管理项目;11.能自动识别操作系统的语言,按需显示中文或英文。 5. WebZip 7.0.0.1025 汉化版 WebZip 是把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可预定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 此版本是直接汉化程序文件,不同于汉化语言文件,汉化较彻底,但仍然有极个别字符没能彻底汉化,但不影响使用。因为是汉化的程序文件,在汉化中对程序界面做了大量优化和美化工作。安装中可选择安装中文版本或英文版本,并可以选择是否注册软件。 6. 木马专杀大师 2.6 本软件采用了先进的程序行为智能判断技术。软件通过分析每个程序的机理来判断木马,不需要木马的特征码,可查杀未知木马。实时扫描内存中的每个程序,一旦发现木马,即时查杀。强力保障您的计算机、网络游戏帐号、QQ和邮箱帐号等不被木马侵害。 目前查杀病毒木马的软件基本都是采用了特征码查杀技术,也就是说用户要不断的下载和更新病毒木马库才能查杀最新的木马。这种方法的弊端很明显,因为每天都有新的木马出现,一旦木马库更新不及时,用户就面临着危险。而且软件的厂商也肯定不能把所有的病毒木马库找全。所以很多用户虽然安装了这些安全软件,帐号还是经常被木马窃取。因此一款好的木马查杀软件必不可少。 7. Teleport Pro 1.40 Teleport Pro所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。 8. Weblinky 1.12简体中文版 WebSlinky可以把站点拷贝到你的计算机里,你可以在方便的时候离线读取,不必等待下载的时间。此程序提供了一个简单的界面,使你能够进入你希望缓存到计算机中的站点地址(URL)中去。它还提供了WebSlinky保存站点文件的本地文件夹的路径和名字以及用户名和口令(如果站点要求).Name:CZY Code:1010107261 9. 网络蜘蛛 1.0 网络蜘蛛是一个自动搜索 HTML 页面并下载指定文件的软件。最初设计它是为了下载网站上的图片,想想看,面对那些动辄拥有数百幅图片的网站,你是否有耐心和时间一一点击查看和下载?而且在目前上网费用如此高昂的年代,在网站上慢慢地手工浏览和下载图片是不是太过奢侈了一点?如果你是一个图片收集爱好者得话,建议你试一试网络蜘蛛这个软件。它可以从你指定的地址开始,自动搜索网站并下载图片或其它软件。听起来似乎有点象离线浏览器或网站下载软件是吗?其实它们还是有些差别的,网络蜘蛛的设计目标主要是针对图片等一些比较零碎的、尺寸不是很大的文件的下载,并高度强调自动化工作和高可靠性。 10. WebCHM 2.07.7507 WebCHM(原WebSeizer测试版)是中国最强大的多线程离线浏览软件,专业的下载大型网站的工具。可以下载整个网站所有的文件,也可以只下载同一个目录的文件,还可以下载指定的层次。主要特色是可以下载超大型的网站(容量>10GB,文件数目>100万的网站),并且内置了CHM压缩引擎,可以灵活方便地将下载的网页制作成CHM压缩文档。下载大型网站时,可以边下载边压缩到CHM文档,以节省空间;下载几百篇文章的小说时,可以下载后再制作成可以在PDA上阅读的CHM格式的电子书。支持断点续传、在线升级、分类管理等功能,操作方便,体贴用户。 11. Offline Explorer 4.1.2347 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 12. BlackWidow 5.00 Beta 19 一个非常简单易用的离线浏览器,它能列出你指定的站点的全部文件,你可以选择需要的文件下载。 13. HTTrack 3.40 一个相当容易使用的脱机阅览软件,能将网站传送到计算机目录里,并且会将所有相关链结重新组织,以方便更顺利的脱机浏览。 14. Aeria Leech 4.3.3 Leech是一个不错的离线浏览器,能够多线程下载多个文件。系统要求:IE4.0或更高版本。 15. CopyWebsite 2.43 离线浏览工具,仅仅需要输入需要下载网站的URL,所有的网页就可以被下载,包括图像和zip文件。 16. 网页抓手(FileCatch) 1.07 网页抓手(FileCatch)是设计来取代IE的另存为菜单的软件,能够嵌入到IE的右键菜单中后台形式保存网页,不打断浏览;此外,FileCatch仅仅保存网页而不包括图象,解决了一存一大堆的现象;FileCatch提供了自动生成一定意义名称的功能,使你不需要为命名烦恼;FileCatch通过智能补完相对地址到网页中,解决了保存的网页超链接丢失的现象;FileCatch能够将网页依耐的CSS嵌入保存到html文件中,保持网页的美观,逼进在线的效果;FileCatch支持对智能选项和代理服务器,使你方便的使用定制;FileCatch是免费软件,你可以自由的使用。 17. Offline Explorer Pro 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 18. Teleport Ultra 1.40 简体中文版 Teleport Ultra 所能做的,不仅仅是离线浏览某个网页 (让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从 Internet 的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页抓回来慢慢欣赏,如果你也曾像我一样,费尽千辛万苦只为了重复抓取同一网站的文件而做一些机械性的动作,Teleport Ultra 简直是我们的救星!它可以迅速、确实地将整个网站复制在你的硬盘中,为您节省大笔的上网费用与时间。Teleport Ultra 是著名的离线浏览软件 Teleport Pro 版本的增强版! 19. Teleport Ultra 1.40 Teleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页捉回慢慢欣赏,如果你也曾像我一样费尽千辛万苦,只为了重复捉取同一网站的档案而做一些机械性的动作Teleport Ultra 简直是我们的救星!它可迅速、确实地将整个网站复制在你的硬碟中,为您节省大笔的连线费用与时间。Teleport Ultra 是著名的离线浏览软件Teleport Pro版本的增强版!更新记录:1.新增了一项功能,使得该软件的Ultra, VLX, Exec, Exec/VLX版可以打开比较小的项目2.新增了可以在UNC卷上运行项目的功能3.在Exec和Exec/VLX版本中新增了API命令4.更新了所有版本的文档5.改进了脚本,可以处理更多的脚本命令6.改进了规则引擎7.修正了会取回一些不需要的URL的bug8.重新设置了Ultra版的试用期 20. Offline Explorer Enterprise 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 21. WebCopier 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 22. Offline Explorer Pro 2.2 汉化版 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 23. Grab-a-Site 5.0 这是一个离线浏览工具。你可以把喜欢的网站抓到本地硬盘上细细的欣赏甚至包括那些有密码保护的站点。还有过滤指定站点的功能。 24. Black Widows 4.37 可以让您建立Web站台的整个目录结构并将之储存以便日后利用,当您下载文件时,依您的选择进行建立下一个网站结构。您可以选择下载整个或部份的文件,也提供续传功能让您下载中断时使用。 25. HTTrack Website Copier for Windows 3.40 Beta 4 HTTrack是一个免费并易于使用的线下浏览器工具,它能够让你从互联网上下载整个网站进行线下浏览。浏览线下站点和线上并没有什么不同。HTTrack同样可以进行线下线上站点同步,支持断点续传。HTTrack是一个可全面配置并包括全面的帮助系统的工具。 26. WebCopier 官方中文语言包 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 27. BackStreet Browser 3.1 BackStreet Browser是个离线浏览的好帮手。它的特性是,同时多个执行绪对目的网站做存取,充分利用频宽,不必受到网络traffic状况的延迟而拖长等待的时间。对于不想花费时间在无谓的等待的人,BackStreetBrowser是不错的选择。 28. SuperBot 4.5 SuperBot帮您将整个网站搬回家SuperBot是个全自动的离线浏览软件,您不需要做太多的设定,便可以将自己想看的网站给整个搬回家!SuperBot与一般的离线浏览软件最大的不同处在于它的操作使用相当简单,您只要设定好想要下载的网站路径以及下载网页存放的路径,SuperBot便可以自动为您进行网页下载的工作了,不过这坪要注意的是,如果您想要下载存放的网站相当大的话,您可能要花相当长的时间等待。 29. SuperHTTP 1.0 SuperHTTP是一套离线浏览软件,可以将整个网站按照目录结构顺序、超连结等,完整下载到硬盘离线浏览,也可以选择只下载图形文件或者其他文件,包括html、txt、pdf、doc、jpg、bmp、gif、png、mpg、mp2、mp3、avi、wav、mid、exe、zip等等,只需在设定中打勾或取消即可,不用一个一个输入文件类型,允许同时下载多个网站,以及显示下载进度功能。此外也提供搜寻引擎功能,可输入关键字搜寻所下载的网站来找出所要的文件或资讯。 30. MemoWeb 3.3.05 离线网络浏览器,以供使用者方便快速的直接在电脑中浏览这些网页。你可以选择是下载整个站点的所有的文件,还是下载首页,或者是某一个部分。同时它还支持下载多媒体文件,例如图片,声音,和视频动画。支持长文件名,断点续传,支持代理服务器。 31. eCatch 3.0 简单实用的离线浏览器。由使用者设定所要观看的网址及连结的层数,而直接抓取并建立一个「可浏览的连结网页」到使用者的电脑中,以供使用者方便快速的直接在电脑中浏览这些网页,可以监视及下载数以千计的网页以供离线观看。可自订组态抓取网页中的特殊文件,像是多媒体文件及自解压缩文件等。 32. WebStripper 2.62 是一个离线浏览器,可以快速、准确地将站点下载到你的硬盘中。它的使用非常简单,而且还提供了多个过滤条件,比如:图像文件的大小等,另外,它还可以提取新的或是升级的页面。 33. DISCo Pump 3.1 这是一个离线浏览器,具有交互性的界面,独一无二的文件树、浏览向导图、页面图标、预览选项。通过它你可以速度地将网页保存到本地,然后离线慢慢进行浏览。 34. GetBot 3.04 GetBot储存网页、抓文件两相宜用GetBot可以很快的将网页中所有的MP3文件或者图形文件。你只要将网址贴进GetBot位址列中,GetBot就会完整的显示出该网站的所有网页以及文件。然后你只要选取要下载的网页以及文件,按下get钮,GetBot就会帮你将所有文件抓回来了。而且GetBot也有续传的功能,不怕抓文件抓到一半断线。GetBot的使用算是很方便,甚至不需要安装,直接就可以执行。 35. 帖子离线浏览器 1.2 1.非常灵活:帖子左边的分类名称和roomid是根据xml文件动态给出的,您可以随便更改该文件从而显示不同的内容,正因为这样,所以他可以适应CSDN的任何改版。2.良好的兼容性:除了CSDN帖子外,通过修改xml配置文件可以适应任何的离线帖子和从网上收集的文章,同时导入选项也是xml个数的,非常方便扩充。3.绿色软件,不写注册表。4.强大的查找功能,可以查找任何一个论坛或子论坛,而且可以递归。 36. 精华浏览器(MixBrowser) 1.7 简体中文版 精华浏览器是一款精致的离线浏览软件,她可以帮你保存网页、图片和flash动画,并以网页的形式浏览整理它们,轻松拥有自己的精华区。有了她你就可以保留那些对自己工作和生活有益的文章、原创,精美的图片和有趣的flash动画在身边,使自己从疲劳的搜索再搜索,或“我记得在哪看过一篇文章”的遗憾中解脱出来,只需鼠标一点即刻保存。作为浏览器,她更拥有鼠标动作、安全浏览和集成搜索、关键字加亮等特色功能,让你的浏览更轻松、更舒适。 37. Power Siphon 1.9.6.0 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 38. WebCopy 99 1.7 是一个可以直接将WEB 网页拷贝储存的软件,包括可以拷贝整个网页、文字、图像、声音及电子邮件等等,这样即可离线观看网页。 39. 网络猎手 2.5 这是一个很好的网上资料收集工具,在浏览器中,你可以通过右键菜单很方便的收集资料,你可以部分选取保存,也可以全部整页的保存,而且保存下来的页面更原来的一样。并且支持拖拉保存,使你可以将没有右键菜单的页面很好的进行保存。而且还提供了页面上一些文档链接(**.zip)的下载功能.下载下来的页面可以进行分类保存和编辑,并最终可以生成eBook(CHM)和HTML文件。 40. Flash Favorite 1.4.8.5.8 FlashFavori 允许你浏览下载到 Internet 临时目录中或当前打开的网页尚的 FLASH 文件。 41. NewsVampire 1.4 本软件的主要功能是将众多网站服务器上的网页快速下载到本地机硬盘上以供离线浏览。其特点是采用了多线程循环下载技术,可自动将数百个网页连同图片自动快速下载并存盘;用户可以一边下载,一边浏览已经下载的网页,从而最大限度地利用网络资源。全中文显示,支持HTTP代理服务器。 42. CatchTheWeb Express 1.2 CatchTheWeb Express不但是个网页浏览器,而且它还可以让使用者将网页从Internet抓取到电脑之中,然后重新组织安排各个网页的顺序、添加注解,而让这些网页具有如展示简报般的用途。只能一次抓取一个单一网页,所以单单在抓取网页的功能方面,并没有离线浏览程序那么好用,但是对于网页资讯的利用方面,却是一个不错的简报辅助软件。 43. QuadSucker Web 3.1 QuadSucker Web 是一个功能强大的离线浏览工具,它可以帮助你完整的将指定的网站中的所有文件和图片,压缩包,多媒体视频或者音频文件统统下载下来,完全自动化操作,不需要人为的干预就可以轻松完成所有的下载工作 .. 44. Website Extractor 9.30 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 45. JOC Web Spider 3.72 离线浏览器, 支持 VBScript & JavaScript。 46. ImageSiteGrabber Pro 2.4.1 可以让您直接指定要抓取的网页以及网站位置,然后就可以轻轻松松的将这些图形文件影像给全部带回家。提供自动更名的功能。 47. Offline Commander 2.2 Offline Commander是一个网页抓取工具,支持FILE、HTTP、HTTPS、FTP协议和Proxy,还可以对抓取回来的网页资料做关键字、网址、标题、内文、文件大小、格式、文件修改日期等检索设置。 48. NetAttache Pro 2.61 可以设定所要下载的网页以及要下载的时间,NetAttache pro 会自动的拨接连接到该网站,将你需要的网页抓回来,然后再自动断线.它会依照你所设定的网页「层数」,将网页文件抓取回来.当网路拥塞时,它还会自动重试 10 次,并且以每次同时抓取20个文件的超快速度来下载网页.在下载的文件类型方面,你可以选择要不要下载影像文件、声音文件、Java、ActiveX、Plugins等等,甚至你还可以依照副档名,来设定所要下载的档案文件。 49. RafaBot 1.5 Rafabot是一个可以协助你将某站台复制到自己硬盘上的工具程序。它能以快速且多工的方式将一个大网站内的资料复制到硬盘上。你可以对它直接指定起始URL位址甚至是网页搜寻引擎的搜寻结果,也可以指定外部连结让Rafabot程序去为你将整个站台复制下来。就算你所想复制的资料范围超过原本网页的范围而延伸到其他的网页去,Rafabot一样可以将这种状况处理的很好。在网页复制下来后,你可以用多种条件去过滤你所找到的资料,让你从一大堆下载下来的网页资料中快速找到你所想要的资料。网页一但下载到你的硬盘后,你就可以在不连接Internet的情况下去读取这些网页资料了。 50. HMView 4.04 不错的离线浏览器.像是网页中的Form, Frame, Image Maps等都可以被完整的抓回来. 51. NewsLook 2.01 build0320 新闻离线浏览器,是一个能将互联网上的新闻内容快速下载到本地硬盘上,并可进行离线浏览的软件.它不仅具有下载速度快,操作简便,节省上网时间等特点,还具有个性化的新闻订阅和方便的新闻收藏管理功能,她可根据个人的兴趣爱好需要,订阅自己喜欢的新闻下载类型,并可设立相应的新闻收藏夹,用于管理新闻.而且它还是免费软件,无需注册缴费。 52. WebCopier Pro 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 53. WebRecorder 2.0a 专为下载大文件、网站的一部分或者是整个网站而设计的,它支持断点续传、时间调度等。 54. Personal Internet Engine 3.0.6 离线浏览器,可以下载指定网站,并用树型结构进行显示,支持进行查找。 55. SurfSaver Pro 2.3 可以专门用来存取一张网页,并且简单易用。它可以完好无损地保存网页,无论是图片、文字、超级链接以及Frame等等的都可储存在名为*.ask的文件中,所以一张网页就是一个文件。与众不同的是,Surfaver支持全文搜索,支持布尔方式和模糊查询,并且你还可以为你所需要保存的网页加上标题、注释和索引,也可把该网页E-mail给你的朋友,当然前提是他也必须用该软件来阅读。 56. SurfOffline 1.4.1 操作简单的网页离线浏览工具 - SurfOffline,使用它的精灵引导,输入您所要下载的网站网址,告诉它您所要下载的深度,这个站台就会下载回来在您的计算机中,下次要浏览时,不用联机,开启您所储存的项目,便可以离线浏览,唯一的缺点:不支持 Flash。 57. WebMirror 1.40 WebMirror 可以将网站快速下载到本地,以供脱机浏览。它可以提供页面大小和时间的信息。 58. Site-Thief 1.8.0 一款可以将整个网站内容都下载下来的工具,为用户提供了下载某个网站的选定部分或全部内容的能力,并将下载的内容储存在本地硬盘,从而可以离线使用. 59. HTML Converter 2.0 该软件可以把 IE4、IE5、Netscape 或 Opera 的 Cache 转换为离线的、可以浏览的网页。 60. HyperMaker HTML Viewer 3000.27 与HyperMaker HTML配套使用的HTML文本查看工具。 61. Power Siphon 1.9.1 Build 24 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 62. WebCapture 1.0 一款 Internet 网络工具。可用于浏览网页、生成镜像网站、下载文件、管理internet链接等等。可将整个网站备份到本地硬盘的工具,也可根据需要将网络链接改为指向备份后的本地文件,这样可以离线时浏览备份后的网站。还可以将要发布的整个网站整合到一个可执行文件,这样就可以在一个整合的浏览器里浏览你的网页。 63. WebSlinky 1.13 Build 105 WebSlinky 是一款非常小巧的离线浏览的软件,简单易用,它可以将你访问站点的结构复制到你的计算机上。 64. Zip Up The Web Lite 2.0.1 可以把整个网页完整的储存起来,含图及文字部分,又能把抓下来的文件储存成exe档,也就是把抓取回来的网页压缩成一个exe执行档。所以他比其他的类似软件更容易传递,也比较容易使用。 65. WebVCR 2.16 如同家中的VCR般的离线浏览程序,它有一个强大的程序向导带您如何录制您所要关看的网页内容,它并可让您同时使用多个网站的录制,完全不受限制。它支援IE2.0及Netscape 2.0以上版本的浏览器。 66. Website Extractor 9.30 汉化版 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 Website Extractor 帮你把整个网站搬搬搬…搬回家! 需要离线浏览时,你会怎么做?打开 IE,选「储存完整网页」的功能?若是需要一个有一千页的网站呢?储存一千次吗?Website Extractor 可以让你输入一次网页 URL,就等着所有的网页通通下载到硬盘中吧! 推荐人评价 ========== Website Extractor 让你下载整个网站或是连结。你可以设定下载的条件,免得下载过多的文件: · 包含/不包含特定的关键词 · 指定网域、目录 · 文件大小、型式、名称 · 要不要下载图片等等。 Website Extractor 可以让你同时下载最多 100 个文件,大幅节省上网的时间、费用。因为线路品质不好有文件传不下来吗?Website Extractor 提供续传的功能让你把没抓到的文件补回来。 最棒的是,Website Extractor 是完全免费的,没有讨厌的广告在旁边烦你! ---------------------------------------------------------------- 汉化说明 ======== 该软件原本带有多语言支持,但经测试,发现该功能很不完善,而且遗漏了几个标准资源的字符串,故本人发布的为直接修改资源的版本。无需原版。 汉化版相对于原版所作的更改: · 汉化文件:webextra.exe、DDOMAIN.TXT、default.txt; · 在 README.TXT 中添加汉化自述; · 删除了所有的语言文件; · 去除了主程序菜单中的语言选项; · 添加 XP 主题支持文件 webextra.exe.manifest,一定程度上美化了 XP 系统中的显示。 P.S. 大家都说这个软件是免费版,可实际上经本人研究,该软件乃共享软件泄漏之官方注册版也。不过不管怎样,好?/div>
2023-07-31 07:39:274

请问哪个下载软件可以一次下载多个网页的?中文版的。

1. WebZip 7.03 中文语言包 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 2. 网站全额下载器 2002 “网站全额下载器”是一个离线浏览的最佳工具。只要几分钟就可以将一个网站全部下载。包括网站内的图片、文字、程序、软件.....等。所以这也是研究别人网站的最好帮手。 3. WebZip 7.0.3 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 4. 离线浏览助理Webdup 0.93 Beta Webdup能够把您想要浏览的信息(如网页和图片等)预先下载下来,保存在本地硬盘,使您可以从本地进行离线浏览,这样不仅可以大大减少上网时间,降低上网费用,还可以加快浏览速度;并且将来无须上网就可以很方便地查阅这些信息。不仅如此, Webdup更提供了备份历次下载记录和比较完善的管理功能,使您能够方便地分类保存和管理有价值的下载信息。 Webdup的当前版本实现了以下功能:1.支持HTTP和FTP下载,并支持HTTP和Socks5代理服务器;2.支持多线程下载;3.支持断点续传;4.可按URL和文件后缀名设置过滤,只下载所需文件;5.自动识别下载过的文件是否更新过,减少重复下载;6.可设置定时下载和定时停止;7.支持自动拨号和自动挂断;8.可导出和导入项目文件,方便用户交换网上资源;9.提供与浏览器(IE)的整合,方便快速地创建项目;10.支持项目和类别的拖拽操作,方便用户分类管理项目;11.能自动识别操作系统的语言,按需显示中文或英文。 5. WebZip 7.0.0.1025 汉化版 WebZip 是把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可预定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 此版本是直接汉化程序文件,不同于汉化语言文件,汉化较彻底,但仍然有极个别字符没能彻底汉化,但不影响使用。因为是汉化的程序文件,在汉化中对程序界面做了大量优化和美化工作。安装中可选择安装中文版本或英文版本,并可以选择是否注册软件。 6. 木马专杀大师 2.6 本软件采用了先进的程序行为智能判断技术。软件通过分析每个程序的机理来判断木马,不需要木马的特征码,可查杀未知木马。实时扫描内存中的每个程序,一旦发现木马,即时查杀。强力保障您的计算机、网络游戏帐号、QQ和邮箱帐号等不被木马侵害。 目前查杀病毒木马的软件基本都是采用了特征码查杀技术,也就是说用户要不断的下载和更新病毒木马库才能查杀最新的木马。这种方法的弊端很明显,因为每天都有新的木马出现,一旦木马库更新不及时,用户就面临着危险。而且软件的厂商也肯定不能把所有的病毒木马库找全。所以很多用户虽然安装了这些安全软件,帐号还是经常被木马窃取。因此一款好的木马查杀软件必不可少。 7. Teleport Pro 1.40 Teleport Pro所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。 8. Weblinky 1.12简体中文版 WebSlinky可以把站点拷贝到你的计算机里,你可以在方便的时候离线读取,不必等待下载的时间。此程序提供了一个简单的界面,使你能够进入你希望缓存到计算机中的站点地址(URL)中去。它还提供了WebSlinky保存站点文件的本地文件夹的路径和名字以及用户名和口令(如果站点要求).Name:CZY Code:1010107261 9. 网络蜘蛛 1.0 网络蜘蛛是一个自动搜索 HTML 页面并下载指定文件的软件。最初设计它是为了下载网站上的图片,想想看,面对那些动辄拥有数百幅图片的网站,你是否有耐心和时间一一点击查看和下载?而且在目前上网费用如此高昂的年代,在网站上慢慢地手工浏览和下载图片是不是太过奢侈了一点?如果你是一个图片收集爱好者得话,建议你试一试网络蜘蛛这个软件。它可以从你指定的地址开始,自动搜索网站并下载图片或其它软件。听起来似乎有点象离线浏览器或网站下载软件是吗?其实它们还是有些差别的,网络蜘蛛的设计目标主要是针对图片等一些比较零碎的、尺寸不是很大的文件的下载,并高度强调自动化工作和高可靠性。 10. WebCHM 2.07.7507 WebCHM(原WebSeizer测试版)是中国最强大的多线程离线浏览软件,专业的下载大型网站的工具。可以下载整个网站所有的文件,也可以只下载同一个目录的文件,还可以下载指定的层次。主要特色是可以下载超大型的网站(容量>10GB,文件数目>100万的网站),并且内置了CHM压缩引擎,可以灵活方便地将下载的网页制作成CHM压缩文档。下载大型网站时,可以边下载边压缩到CHM文档,以节省空间;下载几百篇文章的小说时,可以下载后再制作成可以在PDA上阅读的CHM格式的电子书。支持断点续传、在线升级、分类管理等功能,操作方便,体贴用户。 11. Offline Explorer 4.1.2347 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 12. BlackWidow 5.00 Beta 19 一个非常简单易用的离线浏览器,它能列出你指定的站点的全部文件,你可以选择需要的文件下载。 13. HTTrack 3.40 一个相当容易使用的脱机阅览软件,能将网站传送到计算机目录里,并且会将所有相关链结重新组织,以方便更顺利的脱机浏览。 14. Aeria Leech 4.3.3 Leech是一个不错的离线浏览器,能够多线程下载多个文件。系统要求:IE4.0或更高版本。 15. CopyWebsite 2.43 离线浏览工具,仅仅需要输入需要下载网站的URL,所有的网页就可以被下载,包括图像和zip文件。 16. 网页抓手(FileCatch) 1.07 网页抓手(FileCatch)是设计来取代IE的另存为菜单的软件,能够嵌入到IE的右键菜单中后台形式保存网页,不打断浏览;此外,FileCatch仅仅保存网页而不包括图象,解决了一存一大堆的现象;FileCatch提供了自动生成一定意义名称的功能,使你不需要为命名烦恼;FileCatch通过智能补完相对地址到网页中,解决了保存的网页超链接丢失的现象;FileCatch能够将网页依耐的CSS嵌入保存到html文件中,保持网页的美观,逼进在线的效果;FileCatch支持对智能选项和代理服务器,使你方便的使用定制;FileCatch是免费软件,你可以自由的使用。 17. Offline Explorer Pro 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 18. Teleport Ultra 1.40 简体中文版 Teleport Ultra 所能做的,不仅仅是离线浏览某个网页 (让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从 Internet 的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页抓回来慢慢欣赏,如果你也曾像我一样,费尽千辛万苦只为了重复抓取同一网站的文件而做一些机械性的动作,Teleport Ultra 简直是我们的救星!它可以迅速、确实地将整个网站复制在你的硬盘中,为您节省大笔的上网费用与时间。Teleport Ultra 是著名的离线浏览软件 Teleport Pro 版本的增强版! 19. Teleport Ultra 1.40 Teleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页捉回慢慢欣赏,如果你也曾像我一样费尽千辛万苦,只为了重复捉取同一网站的档案而做一些机械性的动作Teleport Ultra 简直是我们的救星!它可迅速、确实地将整个网站复制在你的硬碟中,为您节省大笔的连线费用与时间。Teleport Ultra 是著名的离线浏览软件Teleport Pro版本的增强版!更新记录:1.新增了一项功能,使得该软件的Ultra, VLX, Exec, Exec/VLX版可以打开比较小的项目2.新增了可以在UNC卷上运行项目的功能3.在Exec和Exec/VLX版本中新增了API命令4.更新了所有版本的文档5.改进了脚本,可以处理更多的脚本命令6.改进了规则引擎7.修正了会取回一些不需要的URL的bug8.重新设置了Ultra版的试用期 20. Offline Explorer Enterprise 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 21. WebCopier 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 22. Offline Explorer Pro 2.2 汉化版 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 23. Grab-a-Site 5.0 这是一个离线浏览工具。你可以把喜欢的网站抓到本地硬盘上细细的欣赏甚至包括那些有密码保护的站点。还有过滤指定站点的功能。 24. Black Widows 4.37 可以让您建立Web站台的整个目录结构并将之储存以便日后利用,当您下载文件时,依您的选择进行建立下一个网站结构。您可以选择下载整个或部份的文件,也提供续传功能让您下载中断时使用。 25. HTTrack Website Copier for Windows 3.40 Beta 4 HTTrack是一个免费并易于使用的线下浏览器工具,它能够让你从互联网上下载整个网站进行线下浏览。浏览线下站点和线上并没有什么不同。HTTrack同样可以进行线下线上站点同步,支持断点续传。HTTrack是一个可全面配置并包括全面的帮助系统的工具。 26. WebCopier 官方中文语言包 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 27. BackStreet Browser 3.1 BackStreet Browser是个离线浏览的好帮手。它的特性是,同时多个执行绪对目的网站做存取,充分利用频宽,不必受到网络traffic状况的延迟而拖长等待的时间。对于不想花费时间在无谓的等待的人,BackStreetBrowser是不错的选择。 28. SuperBot 4.5 SuperBot帮您将整个网站搬回家SuperBot是个全自动的离线浏览软件,您不需要做太多的设定,便可以将自己想看的网站给整个搬回家!SuperBot与一般的离线浏览软件最大的不同处在于它的操作使用相当简单,您只要设定好想要下载的网站路径以及下载网页存放的路径,SuperBot便可以自动为您进行网页下载的工作了,不过这坪要注意的是,如果您想要下载存放的网站相当大的话,您可能要花相当长的时间等待。 29. SuperHTTP 1.0 SuperHTTP是一套离线浏览软件,可以将整个网站按照目录结构顺序、超连结等,完整下载到硬盘离线浏览,也可以选择只下载图形文件或者其他文件,包括html、txt、pdf、doc、jpg、bmp、gif、png、mpg、mp2、mp3、avi、wav、mid、exe、zip等等,只需在设定中打勾或取消即可,不用一个一个输入文件类型,允许同时下载多个网站,以及显示下载进度功能。此外也提供搜寻引擎功能,可输入关键字搜寻所下载的网站来找出所要的文件或资讯。 30. MemoWeb 3.3.05 离线网络浏览器,以供使用者方便快速的直接在电脑中浏览这些网页。你可以选择是下载整个站点的所有的文件,还是下载首页,或者是某一个部分。同时它还支持下载多媒体文件,例如图片,声音,和视频动画。支持长文件名,断点续传,支持代理服务器。 31. eCatch 3.0 简单实用的离线浏览器。由使用者设定所要观看的网址及连结的层数,而直接抓取并建立一个「可浏览的连结网页」到使用者的电脑中,以供使用者方便快速的直接在电脑中浏览这些网页,可以监视及下载数以千计的网页以供离线观看。可自订组态抓取网页中的特殊文件,像是多媒体文件及自解压缩文件等。 32. WebStripper 2.62 是一个离线浏览器,可以快速、准确地将站点下载到你的硬盘中。它的使用非常简单,而且还提供了多个过滤条件,比如:图像文件的大小等,另外,它还可以提取新的或是升级的页面。 33. DISCo Pump 3.1 这是一个离线浏览器,具有交互性的界面,独一无二的文件树、浏览向导图、页面图标、预览选项。通过它你可以速度地将网页保存到本地,然后离线慢慢进行浏览。 34. GetBot 3.04 GetBot储存网页、抓文件两相宜用GetBot可以很快的将网页中所有的MP3文件或者图形文件。你只要将网址贴进GetBot位址列中,GetBot就会完整的显示出该网站的所有网页以及文件。然后你只要选取要下载的网页以及文件,按下get钮,GetBot就会帮你将所有文件抓回来了。而且GetBot也有续传的功能,不怕抓文件抓到一半断线。GetBot的使用算是很方便,甚至不需要安装,直接就可以执行。 35. 帖子离线浏览器 1.2 1.非常灵活:帖子左边的分类名称和roomid是根据xml文件动态给出的,您可以随便更改该文件从而显示不同的内容,正因为这样,所以他可以适应CSDN的任何改版。2.良好的兼容性:除了CSDN帖子外,通过修改xml配置文件可以适应任何的离线帖子和从网上收集的文章,同时导入选项也是xml个数的,非常方便扩充。3.绿色软件,不写注册表。4.强大的查找功能,可以查找任何一个论坛或子论坛,而且可以递归。 36. 精华浏览器(MixBrowser) 1.7 简体中文版 精华浏览器是一款精致的离线浏览软件,她可以帮你保存网页、图片和flash动画,并以网页的形式浏览整理它们,轻松拥有自己的精华区。有了她你就可以保留那些对自己工作和生活有益的文章、原创,精美的图片和有趣的flash动画在身边,使自己从疲劳的搜索再搜索,或“我记得在哪看过一篇文章”的遗憾中解脱出来,只需鼠标一点即刻保存。作为浏览器,她更拥有鼠标动作、安全浏览和集成搜索、关键字加亮等特色功能,让你的浏览更轻松、更舒适。 37. Power Siphon 1.9.6.0 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 38. WebCopy 99 1.7 是一个可以直接将WEB 网页拷贝储存的软件,包括可以拷贝整个网页、文字、图像、声音及电子邮件等等,这样即可离线观看网页。 39. 网络猎手 2.5 这是一个很好的网上资料收集工具,在浏览器中,你可以通过右键菜单很方便的收集资料,你可以部分选取保存,也可以全部整页的保存,而且保存下来的页面更原来的一样。并且支持拖拉保存,使你可以将没有右键菜单的页面很好的进行保存。而且还提供了页面上一些文档链接(**.zip)的下载功能.下载下来的页面可以进行分类保存和编辑,并最终可以生成eBook(CHM)和HTML文件。 40. Flash Favorite 1.4.8.5.8 FlashFavori 允许你浏览下载到 Internet 临时目录中或当前打开的网页尚的 FLASH 文件。 41. NewsVampire 1.4 本软件的主要功能是将众多网站服务器上的网页快速下载到本地机硬盘上以供离线浏览。其特点是采用了多线程循环下载技术,可自动将数百个网页连同图片自动快速下载并存盘;用户可以一边下载,一边浏览已经下载的网页,从而最大限度地利用网络资源。全中文显示,支持HTTP代理服务器。 42. CatchTheWeb Express 1.2 CatchTheWeb Express不但是个网页浏览器,而且它还可以让使用者将网页从Internet抓取到电脑之中,然后重新组织安排各个网页的顺序、添加注解,而让这些网页具有如展示简报般的用途。只能一次抓取一个单一网页,所以单单在抓取网页的功能方面,并没有离线浏览程序那么好用,但是对于网页资讯的利用方面,却是一个不错的简报辅助软件。 43. QuadSucker Web 3.1 QuadSucker Web 是一个功能强大的离线浏览工具,它可以帮助你完整的将指定的网站中的所有文件和图片,压缩包,多媒体视频或者音频文件统统下载下来,完全自动化操作,不需要人为的干预就可以轻松完成所有的下载工作 .. 44. Website Extractor 9.30 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 45. JOC Web Spider 3.72 离线浏览器, 支持 VBScript & JavaScript。 46. ImageSiteGrabber Pro 2.4.1 可以让您直接指定要抓取的网页以及网站位置,然后就可以轻轻松松的将这些图形文件影像给全部带回家。提供自动更名的功能。 47. Offline Commander 2.2 Offline Commander是一个网页抓取工具,支持FILE、HTTP、HTTPS、FTP协议和Proxy,还可以对抓取回来的网页资料做关键字、网址、标题、内文、文件大小、格式、文件修改日期等检索设置。 48. NetAttache Pro 2.61 可以设定所要下载的网页以及要下载的时间,NetAttache pro 会自动的拨接连接到该网站,将你需要的网页抓回来,然后再自动断线.它会依照你所设定的网页「层数」,将网页文件抓取回来.当网路拥塞时,它还会自动重试 10 次,并且以每次同时抓取20个文件的超快速度来下载网页.在下载的文件类型方面,你可以选择要不要下载影像文件、声音文件、Java、ActiveX、Plugins等等,甚至你还可以依照副档名,来设定所要下载的档案文件。 49. RafaBot 1.5 Rafabot是一个可以协助你将某站台复制到自己硬盘上的工具程序。它能以快速且多工的方式将一个大网站内的资料复制到硬盘上。你可以对它直接指定起始URL位址甚至是网页搜寻引擎的搜寻结果,也可以指定外部连结让Rafabot程序去为你将整个站台复制下来。就算你所想复制的资料范围超过原本网页的范围而延伸到其他的网页去,Rafabot一样可以将这种状况处理的很好。在网页复制下来后,你可以用多种条件去过滤你所找到的资料,让你从一大堆下载下来的网页资料中快速找到你所想要的资料。网页一但下载到你的硬盘后,你就可以在不连接Internet的情况下去读取这些网页资料了。 50. HMView 4.04 不错的离线浏览器.像是网页中的Form, Frame, Image Maps等都可以被完整的抓回来. 51. NewsLook 2.01 build0320 新闻离线浏览器,是一个能将互联网上的新闻内容快速下载到本地硬盘上,并可进行离线浏览的软件.它不仅具有下载速度快,操作简便,节省上网时间等特点,还具有个性化的新闻订阅和方便的新闻收藏管理功能,她可根据个人的兴趣爱好需要,订阅自己喜欢的新闻下载类型,并可设立相应的新闻收藏夹,用于管理新闻.而且它还是免费软件,无需注册缴费。 52. WebCopier Pro 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 53. WebRecorder 2.0a 专为下载大文件、网站的一部分或者是整个网站而设计的,它支持断点续传、时间调度等。 54. Personal Internet Engine 3.0.6 离线浏览器,可以下载指定网站,并用树型结构进行显示,支持进行查找。 55. SurfSaver Pro 2.3 可以专门用来存取一张网页,并且简单易用。它可以完好无损地保存网页,无论是图片、文字、超级链接以及Frame等等的都可储存在名为*.ask的文件中,所以一张网页就是一个文件。与众不同的是,Surfaver支持全文搜索,支持布尔方式和模糊查询,并且你还可以为你所需要保存的网页加上标题、注释和索引,也可把该网页E-mail给你的朋友,当然前提是他也必须用该软件来阅读。 56. SurfOffline 1.4.1 操作简单的网页离线浏览工具 - SurfOffline,使用它的精灵引导,输入您所要下载的网站网址,告诉它您所要下载的深度,这个站台就会下载回来在您的计算机中,下次要浏览时,不用联机,开启您所储存的项目,便可以离线浏览,唯一的缺点:不支持 Flash。 57. WebMirror 1.40 WebMirror 可以将网站快速下载到本地,以供脱机浏览。它可以提供页面大小和时间的信息。 58. Site-Thief 1.8.0 一款可以将整个网站内容都下载下来的工具,为用户提供了下载某个网站的选定部分或全部内容的能力,并将下载的内容储存在本地硬盘,从而可以离线使用. 59. HTML Converter 2.0 该软件可以把 IE4、IE5、Netscape 或 Opera 的 Cache 转换为离线的、可以浏览的网页。 60. HyperMaker HTML Viewer 3000.27 与HyperMaker HTML配套使用的HTML文本查看工具。 61. Power Siphon 1.9.1 Build 24 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 62. WebCapture 1.0 一款 Internet 网络工具。可用于浏览网页、生成镜像网站、下载文件、管理internet链接等等。可将整个网站备份到本地硬盘的工具,也可根据需要将网络链接改为指向备份后的本地文件,这样可以离线时浏览备份后的网站。还可以将要发布的整个网站整合到一个可执行文件,这样就可以在一个整合的浏览器里浏览你的网页。 63. WebSlinky 1.13 Build 105 WebSlinky 是一款非常小巧的离线浏览的软件,简单易用,它可以将你访问站点的结构复制到你的计算机上。 64. Zip Up The Web Lite 2.0.1 可以把整个网页完整的储存起来,含图及文字部分,又能把抓下来的文件储存成exe档,也就是把抓取回来的网页压缩成一个exe执行档。所以他比其他的类似软件更容易传递,也比较容易使用。 65. WebVCR 2.16 如同家中的VCR般的离线浏览程序,它有一个强大的程序向导带您如何录制您所要关看的网页内容,它并可让您同时使用多个网站的录制,完全不受限制。它支援IE2.0及Netscape 2.0以上版本的浏览器。 66. Website Extractor 9.30 汉化版 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 Website Extractor 帮你把整个网站搬搬搬…搬回家! 需要离线浏览时,你会怎么做?打开 IE,选「储存完整网页」的功能?若是需要一个有一千页的网站呢?储存一千次吗?Website Extractor 可以让你输入一次网页 URL,就等着所有的网页通通下载到硬盘中吧! 推荐人评价 ========== Website Extractor 让你下载整个网站或是连结。你可以设定下载的条件,免得下载过多的文件: · 包含/不包含特定的关键词 · 指定网域、目录 · 文件大小、型式、名称 · 要不要下载图片等等。 Website Extractor 可以让你同时下载最多 100 个文件,大幅节省上网的时间、费用。因为线路品质不好有文件传不下来吗?Website Extractor 提供续传的功能让你把没抓到的文件补回来。 最棒的是,Website Extractor 是完全免费的,没有讨厌的广告在旁边烦你! ---------------------------------------------------------------- 汉化说明 ======== 该软件原本带有多语言支持,但经测试,发现该功能很不完善,而且遗漏了几个标准资源的字符串,故本人发布的为直接修改资源的版本。无需原版。 汉化版相对于原版所作的更改: · 汉化文件:webextra.exe、DDOMAIN.TXT、default.txt; · 在 README.TXT 中添加汉化自述; · 删除了所有的语言文件; · 去除了主程序菜单中的语言选项; · 添加 XP 主题支持文件 webextra.exe.manifest,一定程度上美化了 XP 系统中的显示。 P.S. 大家都说这个软件是免费版,可实际上经本人研究,该软件乃共享软件泄漏之官方注册版也。不过不管怎样,好
2023-07-31 07:39:373

什么软件可以实现离线浏览网页

1. WebZip 7.03 中文语言包 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 2. 网站全额下载器 2002 “网站全额下载器”是一个离线浏览的最佳工具。只要几分钟就可以将一个网站全部下载。包括网站内的图片、文字、程序、软件.....等。所以这也是研究别人网站的最好帮手。 3. WebZip 7.0.3 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 4. 离线浏览助理Webdup 0.93 Beta Webdup能够把您想要浏览的信息(如网页和图片等)预先下载下来,保存在本地硬盘,使您可以从本地进行离线浏览,这样不仅可以大大减少上网时间,降低上网费用,还可以加快浏览速度;并且将来无须上网就可以很方便地查阅这些信息。不仅如此, Webdup更提供了备份历次下载记录和比较完善的管理功能,使您能够方便地分类保存和管理有价值的下载信息。 Webdup的当前版本实现了以下功能:1.支持HTTP和FTP下载,并支持HTTP和Socks5代理服务器;2.支持多线程下载;3.支持断点续传;4.可按URL和文件后缀名设置过滤,只下载所需文件;5.自动识别下载过的文件是否更新过,减少重复下载;6.可设置定时下载和定时停止;7.支持自动拨号和自动挂断;8.可导出和导入项目文件,方便用户交换网上资源;9.提供与浏览器(IE)的整合,方便快速地创建项目;10.支持项目和类别的拖拽操作,方便用户分类管理项目;11.能自动识别操作系统的语言,按需显示中文或英文。 5. WebZip 7.0.0.1025 汉化版 WebZip 是把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可预定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 此版本是直接汉化程序文件,不同于汉化语言文件,汉化较彻底,但仍然有极个别字符没能彻底汉化,但不影响使用。因为是汉化的程序文件,在汉化中对程序界面做了大量优化和美化工作。安装中可选择安装中文版本或英文版本,并可以选择是否注册软件。 6. 木马专杀大师 2.6 本软件采用了先进的程序行为智能判断技术。软件通过分析每个程序的机理来判断木马,不需要木马的特征码,可查杀未知木马。实时扫描内存中的每个程序,一旦发现木马,即时查杀。强力保障您的计算机、网络游戏帐号、QQ和邮箱帐号等不被木马侵害。 目前查杀病毒木马的软件基本都是采用了特征码查杀技术,也就是说用户要不断的下载和更新病毒木马库才能查杀最新的木马。这种方法的弊端很明显,因为每天都有新的木马出现,一旦木马库更新不及时,用户就面临着危险。而且软件的厂商也肯定不能把所有的病毒木马库找全。所以很多用户虽然安装了这些安全软件,帐号还是经常被木马窃取。因此一款好的木马查杀软件必不可少。 7. Teleport Pro 1.40 Teleport Pro所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。 8. Weblinky 1.12简体中文版 WebSlinky可以把站点拷贝到你的计算机里,你可以在方便的时候离线读取,不必等待下载的时间。此程序提供了一个简单的界面,使你能够进入你希望缓存到计算机中的站点地址(URL)中去。它还提供了WebSlinky保存站点文件的本地文件夹的路径和名字以及用户名和口令(如果站点要求).Name:CZY Code:1010107261 9. 网络蜘蛛 1.0 网络蜘蛛是一个自动搜索 HTML 页面并下载指定文件的软件。最初设计它是为了下载网站上的图片,想想看,面对那些动辄拥有数百幅图片的网站,你是否有耐心和时间一一点击查看和下载?而且在目前上网费用如此高昂的年代,在网站上慢慢地手工浏览和下载图片是不是太过奢侈了一点?如果你是一个图片收集爱好者得话,建议你试一试网络蜘蛛这个软件。它可以从你指定的地址开始,自动搜索网站并下载图片或其它软件。听起来似乎有点象离线浏览器或网站下载软件是吗?其实它们还是有些差别的,网络蜘蛛的设计目标主要是针对图片等一些比较零碎的、尺寸不是很大的文件的下载,并高度强调自动化工作和高可靠性。 10. WebCHM 2.07.7507 WebCHM(原WebSeizer测试版)是中国最强大的多线程离线浏览软件,专业的下载大型网站的工具。可以下载整个网站所有的文件,也可以只下载同一个目录的文件,还可以下载指定的层次。主要特色是可以下载超大型的网站(容量>10GB,文件数目>100万的网站),并且内置了CHM压缩引擎,可以灵活方便地将下载的网页制作成CHM压缩文档。下载大型网站时,可以边下载边压缩到CHM文档,以节省空间;下载几百篇文章的小说时,可以下载后再制作成可以在PDA上阅读的CHM格式的电子书。支持断点续传、在线升级、分类管理等功能,操作方便,体贴用户。 11. Offline Explorer 4.1.2347 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 12. BlackWidow 5.00 Beta 19 一个非常简单易用的离线浏览器,它能列出你指定的站点的全部文件,你可以选择需要的文件下载。 13. HTTrack 3.40 一个相当容易使用的脱机阅览软件,能将网站传送到计算机目录里,并且会将所有相关链结重新组织,以方便更顺利的脱机浏览。 14. Aeria Leech 4.3.3 Leech是一个不错的离线浏览器,能够多线程下载多个文件。系统要求:IE4.0或更高版本。 15. CopyWebsite 2.43 离线浏览工具,仅仅需要输入需要下载网站的URL,所有的网页就可以被下载,包括图像和zip文件。 16. 网页抓手(FileCatch) 1.07 网页抓手(FileCatch)是设计来取代IE的另存为菜单的软件,能够嵌入到IE的右键菜单中后台形式保存网页,不打断浏览;此外,FileCatch仅仅保存网页而不包括图象,解决了一存一大堆的现象;FileCatch提供了自动生成一定意义名称的功能,使你不需要为命名烦恼;FileCatch通过智能补完相对地址到网页中,解决了保存的网页超链接丢失的现象;FileCatch能够将网页依耐的CSS嵌入保存到html文件中,保持网页的美观,逼进在线的效果;FileCatch支持对智能选项和代理服务器,使你方便的使用定制;FileCatch是免费软件,你可以自由的使用。 17. Offline Explorer Pro 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 18. Teleport Ultra 1.40 简体中文版 Teleport Ultra 所能做的,不仅仅是离线浏览某个网页 (让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从 Internet 的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页抓回来慢慢欣赏,如果你也曾像我一样,费尽千辛万苦只为了重复抓取同一网站的文件而做一些机械性的动作,Teleport Ultra 简直是我们的救星!它可以迅速、确实地将整个网站复制在你的硬盘中,为您节省大笔的上网费用与时间。Teleport Ultra 是著名的离线浏览软件 Teleport Pro 版本的增强版! 19. Teleport Ultra 1.40 Teleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页捉回慢慢欣赏,如果你也曾像我一样费尽千辛万苦,只为了重复捉取同一网站的档案而做一些机械性的动作Teleport Ultra 简直是我们的救星!它可迅速、确实地将整个网站复制在你的硬碟中,为您节省大笔的连线费用与时间。Teleport Ultra 是著名的离线浏览软件Teleport Pro版本的增强版!更新记录:1.新增了一项功能,使得该软件的Ultra, VLX, Exec, Exec/VLX版可以打开比较小的项目2.新增了可以在UNC卷上运行项目的功能3.在Exec和Exec/VLX版本中新增了API命令4.更新了所有版本的文档5.改进了脚本,可以处理更多的脚本命令6.改进了规则引擎7.修正了会取回一些不需要的URL的bug8.重新设置了Ultra版的试用期 20. Offline Explorer Enterprise 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 21. WebCopier 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 22. Offline Explorer Pro 2.2 汉化版 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 23. Grab-a-Site 5.0 这是一个离线浏览工具。你可以把喜欢的网站抓到本地硬盘上细细的欣赏甚至包括那些有密码保护的站点。还有过滤指定站点的功能。 24. Black Widows 4.37 可以让您建立Web站台的整个目录结构并将之储存以便日后利用,当您下载文件时,依您的选择进行建立下一个网站结构。您可以选择下载整个或部份的文件,也提供续传功能让您下载中断时使用。 25. HTTrack Website Copier for Windows 3.40 Beta 4 HTTrack是一个免费并易于使用的线下浏览器工具,它能够让你从互联网上下载整个网站进行线下浏览。浏览线下站点和线上并没有什么不同。HTTrack同样可以进行线下线上站点同步,支持断点续传。HTTrack是一个可全面配置并包括全面的帮助系统的工具。 26. WebCopier 官方中文语言包 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 27. BackStreet Browser 3.1 BackStreet Browser是个离线浏览的好帮手。它的特性是,同时多个执行绪对目的网站做存取,充分利用频宽,不必受到网络traffic状况的延迟而拖长等待的时间。对于不想花费时间在无谓的等待的人,BackStreetBrowser是不错的选择。 28. SuperBot 4.5 SuperBot帮您将整个网站搬回家SuperBot是个全自动的离线浏览软件,您不需要做太多的设定,便可以将自己想看的网站给整个搬回家!SuperBot与一般的离线浏览软件最大的不同处在于它的操作使用相当简单,您只要设定好想要下载的网站路径以及下载网页存放的路径,SuperBot便可以自动为您进行网页下载的工作了,不过这坪要注意的是,如果您想要下载存放的网站相当大的话,您可能要花相当长的时间等待。 29. SuperHTTP 1.0 SuperHTTP是一套离线浏览软件,可以将整个网站按照目录结构顺序、超连结等,完整下载到硬盘离线浏览,也可以选择只下载图形文件或者其他文件,包括html、txt、pdf、doc、jpg、bmp、gif、png、mpg、mp2、mp3、avi、wav、mid、exe、zip等等,只需在设定中打勾或取消即可,不用一个一个输入文件类型,允许同时下载多个网站,以及显示下载进度功能。此外也提供搜寻引擎功能,可输入关键字搜寻所下载的网站来找出所要的文件或资讯。 30. MemoWeb 3.3.05 离线网络浏览器,以供使用者方便快速的直接在电脑中浏览这些网页。你可以选择是下载整个站点的所有的文件,还是下载首页,或者是某一个部分。同时它还支持下载多媒体文件,例如图片,声音,和视频动画。支持长文件名,断点续传,支持代理服务器。 31. eCatch 3.0 简单实用的离线浏览器。由使用者设定所要观看的网址及连结的层数,而直接抓取并建立一个「可浏览的连结网页」到使用者的电脑中,以供使用者方便快速的直接在电脑中浏览这些网页,可以监视及下载数以千计的网页以供离线观看。可自订组态抓取网页中的特殊文件,像是多媒体文件及自解压缩文件等。 32. WebStripper 2.62 是一个离线浏览器,可以快速、准确地将站点下载到你的硬盘中。它的使用非常简单,而且还提供了多个过滤条件,比如:图像文件的大小等,另外,它还可以提取新的或是升级的页面。 33. DISCo Pump 3.1 这是一个离线浏览器,具有交互性的界面,独一无二的文件树、浏览向导图、页面图标、预览选项。通过它你可以速度地将网页保存到本地,然后离线慢慢进行浏览。 34. GetBot 3.04 GetBot储存网页、抓文件两相宜用GetBot可以很快的将网页中所有的MP3文件或者图形文件。你只要将网址贴进GetBot位址列中,GetBot就会完整的显示出该网站的所有网页以及文件。然后你只要选取要下载的网页以及文件,按下get钮,GetBot就会帮你将所有文件抓回来了。而且GetBot也有续传的功能,不怕抓文件抓到一半断线。GetBot的使用算是很方便,甚至不需要安装,直接就可以执行。 35. 帖子离线浏览器 1.2 1.非常灵活:帖子左边的分类名称和roomid是根据xml文件动态给出的,您可以随便更改该文件从而显示不同的内容,正因为这样,所以他可以适应CSDN的任何改版。2.良好的兼容性:除了CSDN帖子外,通过修改xml配置文件可以适应任何的离线帖子和从网上收集的文章,同时导入选项也是xml个数的,非常方便扩充。3.绿色软件,不写注册表。4.强大的查找功能,可以查找任何一个论坛或子论坛,而且可以递归。 36. 精华浏览器(MixBrowser) 1.7 简体中文版 精华浏览器是一款精致的离线浏览软件,她可以帮你保存网页、图片和flash动画,并以网页的形式浏览整理它们,轻松拥有自己的精华区。有了她你就可以保留那些对自己工作和生活有益的文章、原创,精美的图片和有趣的flash动画在身边,使自己从疲劳的搜索再搜索,或“我记得在哪看过一篇文章”的遗憾中解脱出来,只需鼠标一点即刻保存。作为浏览器,她更拥有鼠标动作、安全浏览和集成搜索、关键字加亮等特色功能,让你的浏览更轻松、更舒适。 37. Power Siphon 1.9.6.0 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 38. WebCopy 99 1.7 是一个可以直接将WEB 网页拷贝储存的软件,包括可以拷贝整个网页、文字、图像、声音及电子邮件等等,这样即可离线观看网页。 39. 网络猎手 2.5 这是一个很好的网上资料收集工具,在浏览器中,你可以通过右键菜单很方便的收集资料,你可以部分选取保存,也可以全部整页的保存,而且保存下来的页面更原来的一样。并且支持拖拉保存,使你可以将没有右键菜单的页面很好的进行保存。而且还提供了页面上一些文档链接(**.zip)的下载功能.下载下来的页面可以进行分类保存和编辑,并最终可以生成eBook(CHM)和HTML文件。 40. Flash Favorite 1.4.8.5.8 FlashFavori 允许你浏览下载到 Internet 临时目录中或当前打开的网页尚的 FLASH 文件。 41. NewsVampire 1.4 本软件的主要功能是将众多网站服务器上的网页快速下载到本地机硬盘上以供离线浏览。其特点是采用了多线程循环下载技术,可自动将数百个网页连同图片自动快速下载并存盘;用户可以一边下载,一边浏览已经下载的网页,从而最大限度地利用网络资源。全中文显示,支持HTTP代理服务器。 42. CatchTheWeb Express 1.2 CatchTheWeb Express不但是个网页浏览器,而且它还可以让使用者将网页从Internet抓取到电脑之中,然后重新组织安排各个网页的顺序、添加注解,而让这些网页具有如展示简报般的用途。只能一次抓取一个单一网页,所以单单在抓取网页的功能方面,并没有离线浏览程序那么好用,但是对于网页资讯的利用方面,却是一个不错的简报辅助软件。 43. QuadSucker Web 3.1 QuadSucker Web 是一个功能强大的离线浏览工具,它可以帮助你完整的将指定的网站中的所有文件和图片,压缩包,多媒体视频或者音频文件统统下载下来,完全自动化操作,不需要人为的干预就可以轻松完成所有的下载工作 .. 44. Website Extractor 9.30 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 45. JOC Web Spider 3.72 离线浏览器, 支持 VBScript & JavaScript。 46. ImageSiteGrabber Pro 2.4.1 可以让您直接指定要抓取的网页以及网站位置,然后就可以轻轻松松的将这些图形文件影像给全部带回家。提供自动更名的功能。 47. Offline Commander 2.2 Offline Commander是一个网页抓取工具,支持FILE、HTTP、HTTPS、FTP协议和Proxy,还可以对抓取回来的网页资料做关键字、网址、标题、内文、文件大小、格式、文件修改日期等检索设置。 48. NetAttache Pro 2.61 可以设定所要下载的网页以及要下载的时间,NetAttache pro 会自动的拨接连接到该网站,将你需要的网页抓回来,然后再自动断线.它会依照你所设定的网页「层数」,将网页文件抓取回来.当网路拥塞时,它还会自动重试 10 次,并且以每次同时抓取20个文件的超快速度来下载网页.在下载的文件类型方面,你可以选择要不要下载影像文件、声音文件、Java、ActiveX、Plugins等等,甚至你还可以依照副档名,来设定所要下载的档案文件。 49. RafaBot 1.5 Rafabot是一个可以协助你将某站台复制到自己硬盘上的工具程序。它能以快速且多工的方式将一个大网站内的资料复制到硬盘上。你可以对它直接指定起始URL位址甚至是网页搜寻引擎的搜寻结果,也可以指定外部连结让Rafabot程序去为你将整个站台复制下来。就算你所想复制的资料范围超过原本网页的范围而延伸到其他的网页去,Rafabot一样可以将这种状况处理的很好。在网页复制下来后,你可以用多种条件去过滤你所找到的资料,让你从一大堆下载下来的网页资料中快速找到你所想要的资料。网页一但下载到你的硬盘后,你就可以在不连接Internet的情况下去读取这些网页资料了。 50. HMView 4.04 不错的离线浏览器.像是网页中的Form, Frame, Image Maps等都可以被完整的抓回来. 51. NewsLook 2.01 build0320 新闻离线浏览器,是一个能将互联网上的新闻内容快速下载到本地硬盘上,并可进行离线浏览的软件.它不仅具有下载速度快,操作简便,节省上网时间等特点,还具有个性化的新闻订阅和方便的新闻收藏管理功能,她可根据个人的兴趣爱好需要,订阅自己喜欢的新闻下载类型,并可设立相应的新闻收藏夹,用于管理新闻.而且它还是免费软件,无需注册缴费。 52. WebCopier Pro 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 53. WebRecorder 2.0a 专为下载大文件、网站的一部分或者是整个网站而设计的,它支持断点续传、时间调度等。 54. Personal Internet Engine 3.0.6 离线浏览器,可以下载指定网站,并用树型结构进行显示,支持进行查找。 55. SurfSaver Pro 2.3 可以专门用来存取一张网页,并且简单易用。它可以完好无损地保存网页,无论是图片、文字、超级链接以及Frame等等的都可储存在名为*.ask的文件中,所以一张网页就是一个文件。与众不同的是,Surfaver支持全文搜索,支持布尔方式和模糊查询,并且你还可以为你所需要保存的网页加上标题、注释和索引,也可把该网页E-mail给你的朋友,当然前提是他也必须用该软件来阅读。 56. SurfOffline 1.4.1 操作简单的网页离线浏览工具 - SurfOffline,使用它的精灵引导,输入您所要下载的网站网址,告诉它您所要下载的深度,这个站台就会下载回来在您的计算机中,下次要浏览时,不用联机,开启您所储存的项目,便可以离线浏览,唯一的缺点:不支持 Flash。 57. WebMirror 1.40 WebMirror 可以将网站快速下载到本地,以供脱机浏览。它可以提供页面大小和时间的信息。 58. Site-Thief 1.8.0 一款可以将整个网站内容都下载下来的工具,为用户提供了下载某个网站的选定部分或全部内容的能力,并将下载的内容储存在本地硬盘,从而可以离线使用. 59. HTML Converter 2.0 该软件可以把 IE4、IE5、Netscape 或 Opera 的 Cache 转换为离线的、可以浏览的网页。 60. HyperMaker HTML Viewer 3000.27 与HyperMaker HTML配套使用的HTML文本查看工具。 61. Power Siphon 1.9.1 Build 24 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 62. WebCapture 1.0 一款 Internet 网络工具。可用于浏览网页、生成镜像网站、下载文件、管理internet链接等等。可将整个网站备份到本地硬盘的工具,也可根据需要将网络链接改为指向备份后的本地文件,这样可以离线时浏览备份后的网站。还可以将要发布的整个网站整合到一个可执行文件,这样就可以在一个整合的浏览器里浏览你的网页。 63. WebSlinky 1.13 Build 105 WebSlinky 是一款非常小巧的离线浏览的软件,简单易用,它可以将你访问站点的结构复制到你的计算机上。 64. Zip Up The Web Lite 2.0.1 可以把整个网页完整的储存起来,含图及文字部分,又能把抓下来的文件储存成exe档,也就是把抓取回来的网页压缩成一个exe执行档。所以他比其他的类似软件更容易传递,也比较容易使用。 65. WebVCR 2.16 如同家中的VCR般的离线浏览程序,它有一个强大的程序向导带您如何录制您所要关看的网页内容,它并可让您同时使用多个网站的录制,完全不受限制。它支援IE2.0及Netscape 2.0以上版本的浏览器。 66. Website Extractor 9.30 汉化版 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 Website Extractor 帮你把整个网站搬搬搬…搬回家! 需要离线浏览时,你会怎么做?打开 IE,选「储存完整网页」的功能?若是需要一个有一千页的网站呢?储存一千次吗?Website Extractor 可以让你输入一次网页 URL,就等着所有的网页通通下载到硬盘中吧! 推荐人评价 ========== Website Extractor 让你下载整个网站或是连结。你可以设定下载的条件,免得下载过多的文件: · 包含/不包含特定的关键词 · 指定网域、目录 · 文件大小、型式、名称 · 要不要下载图片等等。 Website Extractor 可以让你同时下载最多 100 个文件,大幅节省上网的时间、费用。因为线路品质不好有文件传不下来吗?Website Extractor 提供续传的功能让你把没抓到的文件补回来。 最棒的是,Website Extractor 是完全免费的,没有讨厌的广告在旁边烦你! ---------------------------------------------------------------- 汉化说明 ======== 该软件原本带有多语言支持,但经测试,发现该功能很不完善,而且遗漏了几个标准资源的字符串,故本人发布的为直接修改资源的版本。无需原版。 汉化版相对于原版所作的更改: · 汉化文件:webextra.exe、DDOMAIN.TXT、default.txt; · 在 README.TXT 中添加汉化自述; · 删除了所有的语言文件; · 去除了主程序菜单中的语言选项; · 添加 XP 主题支持文件 webextra.exe.manifest,一定程度上美化了 XP 系统中的显示。 P.S. 大家都说这个软件是免费版,可实际上经本人研究,该软件乃共享软件泄漏之官方注册版也。不过不管怎样,好?/div>
2023-07-31 07:39:534

什么是离线浏览,有哪些常用的离线浏览器

很多用户经常上网浏览新闻,阅读技术资料以及电子书籍等,并且希望能够保存一些有价值的信息,但是由于网络速度以及上网费用等原因,直接在网上在线阅读信息,从时间和金钱的角度来考虑都是很不合算的,特别是对于拨号上网的用户更是如此。离线浏览是最有效的解决办法,通过使用离线浏览器,先将信息保存到本地硬盘上,然后离线浏览这些信息,既方便又省钱。 离线浏览的基本原理是:首先将需要的内容进行下载,在下载项目时,从用户设定的“起始地址”开始下载,在下载的网时对网页进行分析,解析出网页中所包含的全部链接,将符合下载条件的链接加入到下载队列中等待下载,这样不断地下载和解析,直到所有要求的链接都被下载到本地硬盘,然后就可以在本地硬盘上随意地进行浏览和阅读了。 离线浏览器有很多种,下面将介绍几款最常用的离线浏览器。 1.Offline Browser软件 Offline Browser离线浏览软件可以将所有喜欢的站点下载到用户硬盘上,不管是Web、FTP、HTTPS、MMS还是RTSP站点。同时拥有许多web开发功能,使得用户能够利用内置的浏览器方便的编辑、浏览和搜索下载的网页。该软件能够被安装到USB和移动设备上并直接运行。 2.WebZIP软件载的层数、文件类型、网页与媒体文件的定位以及网址过滤器,以便 使用WebZIP离线浏览软件能够完整下载网站的内容,或者用户也可以选择自行设置下按自己的需要获取网站内容。用户下载到本地硬盘中的网站内容将仍保持原本的HTML格式,其文件名与目录结构都不会变化,这样可以准确地提供网站的镜像。现在使用WebZIP中新的FAR插件工具,可以把下载的内容制作成HTML帮助文件(chm);也可以把抓取的网蛄内容压缩为ZIP文件。用WebZIP软件进行离线浏览还可以节省大量的时间,因为从一个链接转到另一个链接的速度要比在线时快得多。此外,WebZIP最大可以同时下载16个网页或图片,并支持断点续传与使用代理服务器功能,所以能够在较短的时间内获得大量的信息。 3.WebCopier软件 WebCopier的功能就和它的名字一样,是用来复制网页的软件。用户面对每天晚上上网高峰时间,一定相当的无奈。此时可以利用WebCopier把网页先抓回来,然后再慢慢地看。WebCopier是一个强大的离线浏览软件,可以同时对100个文件进行下载。支持代理服务器,并内置了强大的搜索功能。 4.TeleportUltra软件 Teleport Ultra,是Teleport Pro软件的增强版,它以飞快的下载速度和灵活易用的操作向导,在离线浏览器类软件中独占鳌头,有“离线浏览大师”的美誉。 Teleport Ultra具有以下几个特性。 能够搜索并且下载某站点指定类型的文件,能够获取某站点的文件清单。 利用提供的时间表可以任意设置软件的运行时间,不论何时何地,都能让Teleport Ultra智能地工作。 可以从一个中心网站检测出与之链接的任何网站。 10个线程同时下载信息,使下载文件更加快速。
2023-07-31 07:40:021

怎样才能下载小说,下载成文档格式的?

WebZip 7.03 中文语言包 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 2. 网站全额下载器 2002 “网站全额下载器”是一个离线浏览的最佳工具。只要几分钟就可以将一个网站全部下载。包括网站内的图片、文字、程序、软件.....等。所以这也是研究别人网站的最好帮手。 3. WebZip 7.0.3 WebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 4. 离线浏览助理Webdup 0.93 Beta Webdup能够把您想要浏览的信息(如网页和图片等)预先下载下来,保存在本地硬盘,使您可以从本地进行离线浏览,这样不仅可以大大减少上网时间,降低上网费用,还可以加快浏览速度;并且将来无须上网就可以很方便地查阅这些信息。不仅如此, Webdup更提供了备份历次下载记录和比较完善的管理功能,使您能够方便地分类保存和管理有价值的下载信息。 Webdup的当前版本实现了以下功能:1.支持HTTP和FTP下载,并支持HTTP和Socks5代理服务器;2.支持多线程下载;3.支持断点续传;4.可按URL和文件后缀名设置过滤,只下载所需文件;5.自动识别下载过的文件是否更新过,减少重复下载;6.可设置定时下载和定时停止;7.支持自动拨号和自动挂断;8.可导出和导入项目文件,方便用户交换网上资源;9.提供与浏览器(IE)的整合,方便快速地创建项目;10.支持项目和类别的拖拽操作,方便用户分类管理项目;11.能自动识别操作系统的语言,按需显示中文或英文。 5. WebZip 7.0.0.1025 汉化版 WebZip 是把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个网站全部或部份资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可预定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。 此版本是直接汉化程序文件,不同于汉化语言文件,汉化较彻底,但仍然有极个别字符没能彻底汉化,但不影响使用。因为是汉化的程序文件,在汉化中对程序界面做了大量优化和美化工作。安装中可选择安装中文版本或英文版本,并可以选择是否注册软件。 6. 木马专杀大师 2.6 本软件采用了先进的程序行为智能判断技术。软件通过分析每个程序的机理来判断木马,不需要木马的特征码,可查杀未知木马。实时扫描内存中的每个程序,一旦发现木马,即时查杀。强力保障您的计算机、网络游戏帐号、QQ和邮箱帐号等不被木马侵害。 目前查杀病毒木马的软件基本都是采用了特征码查杀技术,也就是说用户要不断的下载和更新病毒木马库才能查杀最新的木马。这种方法的弊端很明显,因为每天都有新的木马出现,一旦木马库更新不及时,用户就面临着危险。而且软件的厂商也肯定不能把所有的病毒木马库找全。所以很多用户虽然安装了这些安全软件,帐号还是经常被木马窃取。因此一款好的木马查杀软件必不可少。 7. Teleport Pro 1.40 Teleport Pro所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。 8. Weblinky 1.12简体中文版 WebSlinky可以把站点拷贝到你的计算机里,你可以在方便的时候离线读取,不必等待下载的时间。此程序提供了一个简单的界面,使你能够进入你希望缓存到计算机中的站点地址(URL)中去。它还提供了WebSlinky保存站点文件的本地文件夹的路径和名字以及用户名和口令(如果站点要求).Name:CZY Code:1010107261 9. 网络蜘蛛 1.0 网络蜘蛛是一个自动搜索 HTML 页面并下载指定文件的软件。最初设计它是为了下载网站上的图片,想想看,面对那些动辄拥有数百幅图片的网站,你是否有耐心和时间一一点击查看和下载?而且在目前上网费用如此高昂的年代,在网站上慢慢地手工浏览和下载图片是不是太过奢侈了一点?如果你是一个图片收集爱好者得话,建议你试一试网络蜘蛛这个软件。它可以从你指定的地址开始,自动搜索网站并下载图片或其它软件。听起来似乎有点象离线浏览器或网站下载软件是吗?其实它们还是有些差别的,网络蜘蛛的设计目标主要是针对图片等一些比较零碎的、尺寸不是很大的文件的下载,并高度强调自动化工作和高可靠性。 10. WebCHM 2.07.7507 WebCHM(原WebSeizer测试版)是中国最强大的多线程离线浏览软件,专业的下载大型网站的工具。可以下载整个网站所有的文件,也可以只下载同一个目录的文件,还可以下载指定的层次。主要特色是可以下载超大型的网站(容量>10GB,文件数目>100万的网站),并且内置了CHM压缩引擎,可以灵活方便地将下载的网页制作成CHM压缩文档。下载大型网站时,可以边下载边压缩到CHM文档,以节省空间;下载几百篇文章的小说时,可以下载后再制作成可以在PDA上阅读的CHM格式的电子书。支持断点续传、在线升级、分类管理等功能,操作方便,体贴用户。 11. Offline Explorer 4.1.2347 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 12. BlackWidow 5.00 Beta 19 一个非常简单易用的离线浏览器,它能列出你指定的站点的全部文件,你可以选择需要的文件下载。 13. HTTrack 3.40 一个相当容易使用的脱机阅览软件,能将网站传送到计算机目录里,并且会将所有相关链结重新组织,以方便更顺利的脱机浏览。 14. Aeria Leech 4.3.3 Leech是一个不错的离线浏览器,能够多线程下载多个文件。系统要求:IE4.0或更高版本。 15. CopyWebsite 2.43 离线浏览工具,仅仅需要输入需要下载网站的URL,所有的网页就可以被下载,包括图像和zip文件。 16. 网页抓手(FileCatch) 1.07 网页抓手(FileCatch)是设计来取代IE的另存为菜单的软件,能够嵌入到IE的右键菜单中后台形式保存网页,不打断浏览;此外,FileCatch仅仅保存网页而不包括图象,解决了一存一大堆的现象;FileCatch提供了自动生成一定意义名称的功能,使你不需要为命名烦恼;FileCatch通过智能补完相对地址到网页中,解决了保存的网页超链接丢失的现象;FileCatch能够将网页依耐的CSS嵌入保存到html文件中,保持网页的美观,逼进在线的效果;FileCatch支持对智能选项和代理服务器,使你方便的使用定制;FileCatch是免费软件,你可以自由的使用。 17. Offline Explorer Pro 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 18. Teleport Ultra 1.40 简体中文版 Teleport Ultra 所能做的,不仅仅是离线浏览某个网页 (让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从 Internet 的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页抓回来慢慢欣赏,如果你也曾像我一样,费尽千辛万苦只为了重复抓取同一网站的文件而做一些机械性的动作,Teleport Ultra 简直是我们的救星!它可以迅速、确实地将整个网站复制在你的硬盘中,为您节省大笔的上网费用与时间。Teleport Ultra 是著名的离线浏览软件 Teleport Pro 版本的增强版! 19. Teleport Ultra 1.40 Teleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。如果你也和我一样,曾想把整个网页捉回慢慢欣赏,如果你也曾像我一样费尽千辛万苦,只为了重复捉取同一网站的档案而做一些机械性的动作Teleport Ultra 简直是我们的救星!它可迅速、确实地将整个网站复制在你的硬碟中,为您节省大笔的连线费用与时间。Teleport Ultra 是著名的离线浏览软件Teleport Pro版本的增强版!更新记录:1.新增了一项功能,使得该软件的Ultra, VLX, Exec, Exec/VLX版可以打开比较小的项目2.新增了可以在UNC卷上运行项目的功能3.在Exec和Exec/VLX版本中新增了API命令4.更新了所有版本的文档5.改进了脚本,可以处理更多的脚本命令6.改进了规则引擎7.修正了会取回一些不需要的URL的bug8.重新设置了Ultra版的试用期 20. Offline Explorer Enterprise 4.1.2348 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 21. WebCopier 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 22. Offline Explorer Pro 2.2 汉化版 相当方便使用的离线浏览工具,可排定抓取时间、设定Proxy,也可选择抓取的项目及大小,可自设下载的存放位置、及存放的空间限制。它内置浏览程序、可直接浏览或是使用自己喜欢的浏览器来浏览、且更可直接以全浏览窗切换来作网上浏览,另它对于抓取的网站更有MAP的提供、可更清楚整个网站的连结及目录结构。 23. Grab-a-Site 5.0 这是一个离线浏览工具。你可以把喜欢的网站抓到本地硬盘上细细的欣赏甚至包括那些有密码保护的站点。还有过滤指定站点的功能。 24. Black Widows 4.37 可以让您建立Web站台的整个目录结构并将之储存以便日后利用,当您下载文件时,依您的选择进行建立下一个网站结构。您可以选择下载整个或部份的文件,也提供续传功能让您下载中断时使用。 25. HTTrack Website Copier for Windows 3.40 Beta 4 HTTrack是一个免费并易于使用的线下浏览器工具,它能够让你从互联网上下载整个网站进行线下浏览。浏览线下站点和线上并没有什么不同。HTTrack同样可以进行线下线上站点同步,支持断点续传。HTTrack是一个可全面配置并包括全面的帮助系统的工具。 26. WebCopier 官方中文语言包 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 27. BackStreet Browser 3.1 BackStreet Browser是个离线浏览的好帮手。它的特性是,同时多个执行绪对目的网站做存取,充分利用频宽,不必受到网络traffic状况的延迟而拖长等待的时间。对于不想花费时间在无谓的等待的人,BackStreetBrowser是不错的选择。 28. SuperBot 4.5 SuperBot帮您将整个网站搬回家SuperBot是个全自动的离线浏览软件,您不需要做太多的设定,便可以将自己想看的网站给整个搬回家!SuperBot与一般的离线浏览软件最大的不同处在于它的操作使用相当简单,您只要设定好想要下载的网站路径以及下载网页存放的路径,SuperBot便可以自动为您进行网页下载的工作了,不过这坪要注意的是,如果您想要下载存放的网站相当大的话,您可能要花相当长的时间等待。 29. SuperHTTP 1.0 SuperHTTP是一套离线浏览软件,可以将整个网站按照目录结构顺序、超连结等,完整下载到硬盘离线浏览,也可以选择只下载图形文件或者其他文件,包括html、txt、pdf、doc、jpg、bmp、gif、png、mpg、mp2、mp3、avi、wav、mid、exe、zip等等,只需在设定中打勾或取消即可,不用一个一个输入文件类型,允许同时下载多个网站,以及显示下载进度功能。此外也提供搜寻引擎功能,可输入关键字搜寻所下载的网站来找出所要的文件或资讯。 30. MemoWeb 3.3.05 离线网络浏览器,以供使用者方便快速的直接在电脑中浏览这些网页。你可以选择是下载整个站点的所有的文件,还是下载首页,或者是某一个部分。同时它还支持下载多媒体文件,例如图片,声音,和视频动画。支持长文件名,断点续传,支持代理服务器。 31. eCatch 3.0 简单实用的离线浏览器。由使用者设定所要观看的网址及连结的层数,而直接抓取并建立一个「可浏览的连结网页」到使用者的电脑中,以供使用者方便快速的直接在电脑中浏览这些网页,可以监视及下载数以千计的网页以供离线观看。可自订组态抓取网页中的特殊文件,像是多媒体文件及自解压缩文件等。 32. WebStripper 2.62 是一个离线浏览器,可以快速、准确地将站点下载到你的硬盘中。它的使用非常简单,而且还提供了多个过滤条件,比如:图像文件的大小等,另外,它还可以提取新的或是升级的页面。 33. DISCo Pump 3.1 这是一个离线浏览器,具有交互性的界面,独一无二的文件树、浏览向导图、页面图标、预览选项。通过它你可以速度地将网页保存到本地,然后离线慢慢进行浏览。 34. GetBot 3.04 GetBot储存网页、抓文件两相宜用GetBot可以很快的将网页中所有的MP3文件或者图形文件。你只要将网址贴进GetBot位址列中,GetBot就会完整的显示出该网站的所有网页以及文件。然后你只要选取要下载的网页以及文件,按下get钮,GetBot就会帮你将所有文件抓回来了。而且GetBot也有续传的功能,不怕抓文件抓到一半断线。GetBot的使用算是很方便,甚至不需要安装,直接就可以执行。 35. 帖子离线浏览器 1.2 1.非常灵活:帖子左边的分类名称和roomid是根据xml文件动态给出的,您可以随便更改该文件从而显示不同的内容,正因为这样,所以他可以适应CSDN的任何改版。2.良好的兼容性:除了CSDN帖子外,通过修改xml配置文件可以适应任何的离线帖子和从网上收集的文章,同时导入选项也是xml个数的,非常方便扩充。3.绿色软件,不写注册表。4.强大的查找功能,可以查找任何一个论坛或子论坛,而且可以递归。 36. 精华浏览器(MixBrowser) 1.7 简体中文版 精华浏览器是一款精致的离线浏览软件,她可以帮你保存网页、图片和flash动画,并以网页的形式浏览整理它们,轻松拥有自己的精华区。有了她你就可以保留那些对自己工作和生活有益的文章、原创,精美的图片和有趣的flash动画在身边,使自己从疲劳的搜索再搜索,或“我记得在哪看过一篇文章”的遗憾中解脱出来,只需鼠标一点即刻保存。作为浏览器,她更拥有鼠标动作、安全浏览和集成搜索、关键字加亮等特色功能,让你的浏览更轻松、更舒适。 37. Power Siphon 1.9.6.0 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 38. WebCopy 99 1.7 是一个可以直接将WEB 网页拷贝储存的软件,包括可以拷贝整个网页、文字、图像、声音及电子邮件等等,这样即可离线观看网页。 39. 网络猎手 2.5 这是一个很好的网上资料收集工具,在浏览器中,你可以通过右键菜单很方便的收集资料,你可以部分选取保存,也可以全部整页的保存,而且保存下来的页面更原来的一样。并且支持拖拉保存,使你可以将没有右键菜单的页面很好的进行保存。而且还提供了页面上一些文档链接(**.zip)的下载功能.下载下来的页面可以进行分类保存和编辑,并最终可以生成eBook(CHM)和HTML文件。 40. Flash Favorite 1.4.8.5.8 FlashFavori 允许你浏览下载到 Internet 临时目录中或当前打开的网页尚的 FLASH 文件。 41. NewsVampire 1.4 本软件的主要功能是将众多网站服务器上的网页快速下载到本地机硬盘上以供离线浏览。其特点是采用了多线程循环下载技术,可自动将数百个网页连同图片自动快速下载并存盘;用户可以一边下载,一边浏览已经下载的网页,从而最大限度地利用网络资源。全中文显示,支持HTTP代理服务器。 42. CatchTheWeb Express 1.2 CatchTheWeb Express不但是个网页浏览器,而且它还可以让使用者将网页从Internet抓取到电脑之中,然后重新组织安排各个网页的顺序、添加注解,而让这些网页具有如展示简报般的用途。只能一次抓取一个单一网页,所以单单在抓取网页的功能方面,并没有离线浏览程序那么好用,但是对于网页资讯的利用方面,却是一个不错的简报辅助软件。 43. QuadSucker Web 3.1 QuadSucker Web 是一个功能强大的离线浏览工具,它可以帮助你完整的将指定的网站中的所有文件和图片,压缩包,多媒体视频或者音频文件统统下载下来,完全自动化操作,不需要人为的干预就可以轻松完成所有的下载工作 .. 44. Website Extractor 9.30 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 45. JOC Web Spider 3.72 离线浏览器, 支持 VBScript & JavaScript。 46. ImageSiteGrabber Pro 2.4.1 可以让您直接指定要抓取的网页以及网站位置,然后就可以轻轻松松的将这些图形文件影像给全部带回家。提供自动更名的功能。 47. Offline Commander 2.2 Offline Commander是一个网页抓取工具,支持FILE、HTTP、HTTPS、FTP协议和Proxy,还可以对抓取回来的网页资料做关键字、网址、标题、内文、文件大小、格式、文件修改日期等检索设置。 48. NetAttache Pro 2.61 可以设定所要下载的网页以及要下载的时间,NetAttache pro 会自动的拨接连接到该网站,将你需要的网页抓回来,然后再自动断线.它会依照你所设定的网页「层数」,将网页文件抓取回来.当网路拥塞时,它还会自动重试 10 次,并且以每次同时抓取20个文件的超快速度来下载网页.在下载的文件类型方面,你可以选择要不要下载影像文件、声音文件、Java、ActiveX、Plugins等等,甚至你还可以依照副档名,来设定所要下载的档案文件。 49. RafaBot 1.5 Rafabot是一个可以协助你将某站台复制到自己硬盘上的工具程序。它能以快速且多工的方式将一个大网站内的资料复制到硬盘上。你可以对它直接指定起始URL位址甚至是网页搜寻引擎的搜寻结果,也可以指定外部连结让Rafabot程序去为你将整个站台复制下来。就算你所想复制的资料范围超过原本网页的范围而延伸到其他的网页去,Rafabot一样可以将这种状况处理的很好。在网页复制下来后,你可以用多种条件去过滤你所找到的资料,让你从一大堆下载下来的网页资料中快速找到你所想要的资料。网页一但下载到你的硬盘后,你就可以在不连接Internet的情况下去读取这些网页资料了。 50. HMView 4.04 不错的离线浏览器.像是网页中的Form, Frame, Image Maps等都可以被完整的抓回来. 51. NewsLook 2.01 build0320 新闻离线浏览器,是一个能将互联网上的新闻内容快速下载到本地硬盘上,并可进行离线浏览的软件.它不仅具有下载速度快,操作简便,节省上网时间等特点,还具有个性化的新闻订阅和方便的新闻收藏管理功能,她可根据个人的兴趣爱好需要,订阅自己喜欢的新闻下载类型,并可设立相应的新闻收藏夹,用于管理新闻.而且它还是免费软件,无需注册缴费。 52. WebCopier Pro 4.3 是一个强大的离线浏览器,可以同时对100个文件进行下载。支持代理服务器。内置了强大的搜索功能。 53. WebRecorder 2.0a 专为下载大文件、网站的一部分或者是整个网站而设计的,它支持断点续传、时间调度等。 54. Personal Internet Engine 3.0.6 离线浏览器,可以下载指定网站,并用树型结构进行显示,支持进行查找。 55. SurfSaver Pro 2.3 可以专门用来存取一张网页,并且简单易用。它可以完好无损地保存网页,无论是图片、文字、超级链接以及Frame等等的都可储存在名为*.ask的文件中,所以一张网页就是一个文件。与众不同的是,Surfaver支持全文搜索,支持布尔方式和模糊查询,并且你还可以为你所需要保存的网页加上标题、注释和索引,也可把该网页E-mail给你的朋友,当然前提是他也必须用该软件来阅读。 56. SurfOffline 1.4.1 操作简单的网页离线浏览工具 - SurfOffline,使用它的精灵引导,输入您所要下载的网站网址,告诉它您所要下载的深度,这个站台就会下载回来在您的计算机中,下次要浏览时,不用联机,开启您所储存的项目,便可以离线浏览,唯一的缺点:不支持 Flash。 57. WebMirror 1.40 WebMirror 可以将网站快速下载到本地,以供脱机浏览。它可以提供页面大小和时间的信息。 58. Site-Thief 1.8.0 一款可以将整个网站内容都下载下来的工具,为用户提供了下载某个网站的选定部分或全部内容的能力,并将下载的内容储存在本地硬盘,从而可以离线使用. 59. HTML Converter 2.0 该软件可以把 IE4、IE5、Netscape 或 Opera 的 Cache 转换为离线的、可以浏览的网页。 60. HyperMaker HTML Viewer 3000.27 与HyperMaker HTML配套使用的HTML文本查看工具。 61. Power Siphon 1.9.1 Build 24 这是个高效能的网络蜘蛛人,让你下载网站,或任何明确的网页。并储存到硬盘以便浏览使用。简单的提供网页的URL或任何其它开启的页面来下载整个网页,你可以实时观看下载进度,并且从硬盘中存取所有离线页面。此程序还提供了一个压缩已下载网页成为单一执行档案。嵌入的观看器让你看你已下载成功的页面,还包含滚动显示模式。 62. WebCapture 1.0 一款 Internet 网络工具。可用于浏览网页、生成镜像网站、下载文件、管理internet链接等等。可将整个网站备份到本地硬盘的工具,也可根据需要将网络链接改为指向备份后的本地文件,这样可以离线时浏览备份后的网站。还可以将要发布的整个网站整合到一个可执行文件,这样就可以在一个整合的浏览器里浏览你的网页。 63. WebSlinky 1.13 Build 105 WebSlinky 是一款非常小巧的离线浏览的软件,简单易用,它可以将你访问站点的结构复制到你的计算机上。 64. Zip Up The Web Lite 2.0.1 可以把整个网页完整的储存起来,含图及文字部分,又能把抓下来的文件储存成exe档,也就是把抓取回来的网页压缩成一个exe执行档。所以他比其他的类似软件更容易传递,也比较容易使用。 65. WebVCR 2.16 如同家中的VCR般的离线浏览程序,它有一个强大的程序向导带您如何录制您所要关看的网页内容,它并可让您同时使用多个网站的录制,完全不受限制。它支援IE2.0及Netscape 2.0以上版本的浏览器。 66. Website Extractor 9.30 汉化版 该软件可以下载某个网站中符合您指定条件,如关键字、文件类型、大小等的文件。 Website Extractor 帮你把整个网站搬搬搬…搬回家! 需要离线浏览时,你会怎么做?打开 IE,选「储存完整网页」的功能?若是需要一个有一千页的网站呢?储存一千次吗?Website Extractor 可以让你输入一次网页 URL,就等着所有的网页通通下载到硬盘中吧! 推荐人评价 ========== Website Extractor 让你下载整个网站或是连结。你可以设定下载的条件,免得下载过多的文件: · 包含/不包含特定的关键词 · 指定网域、目录 · 文件大小、型式、名称 · 要不要下载图片等等。 Website Extractor 可以让你同时下载最多 100 个文件,大幅节省上网的时间、费用。因为线路品质不好有文件传不下来吗?Website Extractor 提供续传的功能让你把没抓到的文件补回来。 最棒的是,Website Extractor 是完全免费的,没有讨厌的广告在旁边烦你! ---------------------------------------------------------------- 汉化说明 ======== 该软件原本带有多语言支持,但经测试,发现该功能很不完善,而且遗漏了几个标准资源的字符串,故本人发布的为直接修改资源的版本。无需原版。 汉化版相对于原版所作的更改: · 汉化文件:webextra.exe、DDOMAIN.TXT、default.txt; · 在 README.TXT 中添加汉化自述; · 删除了所有的语言文件; · 去除了主程序菜单中的语言选项; · 添加 XP 主题支持文件 webextra.exe.manifest,一定程度上美化了 XP 系统中的显示。 P.S. 大家都说这个软件是免费版,可实际上经本人研究,该软件乃共享软件泄漏之官方注册版也。不过不管怎样,好?/td>
2023-07-31 07:40:104

http://abook.com.cn网页为什么打不开?

u2002网站样式,界面,一键另存为。使用: 1.双击文件“WebZIP.exe”直接运行就可以了; 2.在地址栏输入您想要下载的网站; 3.点击地址栏右侧的“下载”选择全部下载"save directory"—"web pages complete"。4.保存到:可以选择指定的下载文件保存位置。提示:任务名称可以自定义。
2023-07-31 07:40:171

如何隐藏html中的文字和链接

<html><head><script>function clear() {Source=document.body.firstChild.data;document.open();document.close();document.body.innerHTML=Source;}</script></head><body onload=clear()> Test</body></html> ------------------隐藏网页源代码方法汇总1、将以下代码加入到HEML的<body></body>之间<SCRIPT language=javascript> function click() {if (event.button==2) {alert("不许你偷看!");}}document.onmousedown=click </SCRIPT> .................................................................  2、禁止查看网页源代码  真正能实现源代码屏蔽的单纯的.htm是不可能的!想看源代码是没办法阻止的。用TELEPROT可以下载任何文件,相当于做镜像网站, 除非服务器进行安全设置、加密。 下面给几种参考方法,使在浏览我的个人主页时不能使用右键或者不能看到源程序或源代码等。  1)在主页上输入代码:<SCRIPT language=javascript> function click() { if (event.button==2) { alert("对不起,禁止使用此功能^_^.") } } document.onmousedown=click </SCRIPT> <script language="JavaScript"> <!-- locate = 0; function scroller() { if (locate !=500 ) { locate++; scroll(0,locate); clearTimeout(timer); var timer = setTimeout("scroller()",3); timer; } } // --> </script>  2)网页安全技术指南  随着Internet的飞速发展,网站的数量正呈几何级速度递增,网页上的信息极大丰富,但网站的安全与信息的版权却不断受到威胁.近来,全球各大网站先后遭到黑客攻击,接着,为了顺应新形势,国内首家有关网络安全专题诞生了.网站与网页的安全性受到越来越多的关注,本文将由浅入深地介绍关于加强网页安全性的各种技术和技巧,对关心网页源代码版权和网页数据安全保护的读者有较大的帮助.  初级入门篇  对广大网页编写者来说,对源代码的保护是最为关注的,但往往却没有任何办法.辛辛苦苦编写的网页在浏览者面前毫无遮掩,只要被别人轻轻点击鼠标右键,选择(查看源代码)一项后,即可获得网页完全代码,甚至稍加修改后就成为他人的网页.本篇将通过采用JavaScript技术,对页面源代码的修改,使浏览者无法获得源码,达到保护代码的目的.  首先,应屏蔽Internet Explorer工具栏中-查看-源代码一项的功能,即将页面采用框架结构的方式.若你的页面并未使用框架结构,且不需使用框架结构,可使用"零框架"技术(即将页面分为左右两帧,左帧的宽度为1,右帧为原页面).该方法的代码如下:<html> <head> <title>欢迎光临网页教学网</TITLE> </HEAD> <FRAMESET COLS="1,*" frameborder=0 framespacing=0> <FRAME SRC="PS.HTM" NAME="count" noresize scrolling=no> <FRAME SRC="search.HTM" NAME="search" noresize> </frameset> </html>  将该文件存为主文件index.htm,建立一空文件ps.htm,原页面文件现另存为index.html(与主文件名仅在扩展名上略有不同).采用零框架技术有以下优点:  1.浏览者在用工具栏中的源代码项无法直接得到页面代码,仅能得到框架主文件的代码(即上述代码).  2.可利用左帧文件ps.htm加载一些网页的高级应用,如背景音乐,网页计数器,cookie应用等.  其次,应屏蔽鼠标右键的显示源文件功能,即在所需保护的页面文件(上例中为index.html文件)中加入以下代码:(当右键被点击时将出现图1所示提示框)<script Language="JavaScript"> function click() { if (event.button==2||event.button==3) {alert(""用右键要干嘛?"^_^") }} //引号中提示可自定义 document.onmousedown=click </script>  最后,为防止一些了解网页编写语言的人通过框架主文件中的连接手工找出被保护页面后获得源代码,还应在被保护页面中加入以下代码:<script language="javascript"> if(top==self)top.location="index.html" </script>  这段代码将提供跳回功能,使浏览器无法直接看到该页,而是自动跳回框架主文件index.html,起到保护该页面的作用.  在完成以上三个步骤,对你的主页按照框架结构进行了修改后,你的主页源代码将不能被浏览者在网上获得,可以小小庆贺一下了  另外,若你确实不想用框架页面,那么可用特殊的方法打开浏览器新窗口,再结合屏蔽鼠标的功能代码后亦可收到同样的效果,打开方法如下:<a href=javascript:window.open("key.html","被保护页面的标题","height=170,width=290,left=0,top=0,toolbar=0,location=0,directories=0,status=0,menubar=0,scrollbars=0,resizable=0,copyhistory=0") target=_blank>打开被保护页面的连接</a>  代码中,key.html为被保护页面的文件名.新窗口的高度height与宽度width的值可由用户自定义,单位为像素.  注意:嵌入式的 JavaScript代码应加在原文件的<head></head>元素区内.  中级深入篇  上篇中是采用JavaScript技术达到保护在线网页的目的.正所谓"强中自有强中手",有些人使用Webzip,TelePro,Offline等离线浏览器下载你的主页,就可绕过JavaScript保护在线网页的防线,将网页下载后再慢慢剖析.有矛必有盾,你亦可用JavaScript建立的动态转向文件是大多数离线浏览器无法下载你的网页,方法如下.你可将上例中的被保护页面更名为index1.html,而将文件index.html改为以下代码:<script> window.location.replace("index1.html") //本句产生网页跳转功能 </script>  对Internet Explorer5新增的离线浏览功能(脱机工作),以上方法有时失灵,可通过对网页设置cookie的高级技术达到保护的目的.一旦cookie超期,即使网页已被下载到本机也无法浏览,呵呵,厉害吧:)  应加入文件中的cookie代码段如下:<script language="JavaScript"> function getCookieVal (offset) { var endstr = document.cookie.indexOf (";", offset); if (endstr == -1) endstr = document.cookie.length; return unescape(document.cookie.substring(offset, endstr)); } function GetCookie (name) { var arg = name + "="; var alen = arg.length; var clen = document.cookie.length; var i = 0; while (i < clen) { var j = i + alen; if (document.cookie.substring(i, j) == arg) return getCookieVal (j); i = document.cookie.indexOf(" ", i) + 1; if (i == 0) break; } return null; } function SetCookie (name, value) { var argv = SetCookie.arguments; var argc = SetCookie.arguments.length; var expires = (2 < argc) ? argv[2] : true; var path = (3 < argc) ? argv[3] : true; var domain = (4 < argc) ? argv[4] : true; var secure = (5 < argc) ? argv[5] : true; //安全模式生效 document.cookie = name + "=" + escape (value) + ((expires == null) ? "" : ("; expires=" + expires.toGMTString())) + ((path == null) ? "" : ("; path=" + path)) + ((domain == null) ? "" : ("; domain=" + domain)) + ((secure == true) ? "; secure" : ""); } function ResetCounts(name) { visits = 0; SetCookie(expdate , "/", true, true); location.reload(); } </script> <script language="JavaScript"> var expdate = new Date(); var visits; expdate.setTime(expdate.getTime() + (24*60*60 * 1000)); //COOKIES超期时间设置,此处为1天 if(!(visits = GetCookie("visits"))) visits = 0; visits++; SetCookie(expdate, "/", true, true); </script>  如果你已经做到这一步了,那么你的网页所受到的保护就不再是常规意义上的出于道德观念或版权意识,而是真正的技术上的保护手段.  高级研究篇  对网页的保护并不仅仅是涉及源代码的保护,更应该包含对网页数据或网络数据库的保护.对网络数据库的保护可采用基于IIS的CGI接口的认证程序,SQL的安全技术,ASP安全认证程序,Java Applet安全认证程序等手段,属于更高层次的安全措施,包含大量内容,本文不作介绍.本篇将介绍应用JavaScript技术构造的页面认证接口.将仅供有限人群访问的需要数据保护的页面中加入以下代码:<script LANGUAGE="JAVASCRIPT"> <!-- loopy() function loopy() { var sWord ="" while (sWord != "hibow") { sWord = prompt("输入正确密码登陆! ") } alert("身份识别......允许登陆") } //--> </script>  注意:嵌入式的 JavaScript代码应加在原文件的<head></head>元素区内.  代码中字段sWord的值hibow为登陆被保护页面的密码.你可将自定义的密码告诉允许访问该页面的用户,仅当密码被正确输入后浏览者才可看见页面内容,否则将循环停留在密码登入框中(见图2),进不去喽  为了达到保护页面源代码及数据的最佳效果,可将本文介绍的所有方法相结合,这就要考验大家的悟性和能力了。  这样是锁不住代码的,只要先点左健不放,再点右健,在放左建,就能看了,如果你的主页是用ASP,PHP,或者CGI购建的,一般对方是看不到源代码的。防右键的方法已经过时了 还有一个办法就是把回车全去掉,把整个文件压缩。这样看到也看不清楚, 还不影响动行 希望能对你有帮助。
2023-07-31 07:40:391

网络“蜘蛛”是什么?

“Teleport”和“Webzip”者是网络“蜘蛛(Spider)”,或称“机器人(Robot)”。所谓“蜘蛛”,是指能够在万维网上漫游,自动获取链接文档的程序,因其行为(在万维网上爬行)酷似蜘蛛而得名。无论它们叫什么,其核心的目的都只有一个:获取那些存储在因特网上的信息。我们熟知的Yahoo、EXcite和Sohu等搜索引擎都包含Spider。各种Spider的工作原理基本相同。设想一下您因查找某类信息而去访问万维网的情况吧。您在浏览的地址栏键入某个网址,浏览器显示出网站的主页,主页上通常列出网站内不同类别网页的链接,您点击其中可能包含目标的链接,得到下一级网页,查看这个网页,继续点击,直到发现目标。如果这个网站包含对其他网站的链接,您还可能链接到其他相关网站继续搜寻,直至找到目标为止。“蜘蛛”也要做同样的事情,不过它是自动进行的,而且可以同时运行多个线程,因而速度非常快(人工需要几小时的工作它只需几分钟甚至几秒种就完成了)。还有一个重要的区别是:“蜘蛛”通常不会像人一样去读完整的网页,它找到网页后通常只读完文件的头部,如果其中包含搜索的关键词则把网页的索引保存到分类信息数据库中,然后继续搜索。用户只要检索这个数据库就可以得到所需的信息了。
2023-07-31 07:40:481

如何隐藏html中的文字和链接

<html><head><script>function clear() {Source=document.body.firstChild.data;document.open();document.close();document.body.innerHTML=Source;}</script></head><body onload=clear()> Test</body></html> ------------------隐藏网页源代码方法汇总1、将以下代码加入到HEML的<body></body>之间<SCRIPT language=javascript> function click() {if (event.button==2) {alert("不许你偷看!");}}document.onmousedown=click </SCRIPT> .................................................................  2、禁止查看网页源代码  真正能实现源代码屏蔽的单纯的.htm是不可能的!想看源代码是没办法阻止的。用TELEPROT可以下载任何文件,相当于做镜像网站, 除非服务器进行安全设置、加密。 下面给几种参考方法,使在浏览我的个人主页时不能使用右键或者不能看到源程序或源代码等。  1)在主页上输入代码:<SCRIPT language=javascript> function click() { if (event.button==2) { alert("对不起,禁止使用此功能^_^.") } } document.onmousedown=click </SCRIPT> <script language="JavaScript"> <!-- locate = 0; function scroller() { if (locate !=500 ) { locate++; scroll(0,locate); clearTimeout(timer); var timer = setTimeout("scroller()",3); timer; } } // --> </script>  2)网页安全技术指南  随着Internet的飞速发展,网站的数量正呈几何级速度递增,网页上的信息极大丰富,但网站的安全与信息的版权却不断受到威胁.近来,全球各大网站先后遭到黑客攻击,接着,为了顺应新形势,国内首家有关网络安全专题诞生了.网站与网页的安全性受到越来越多的关注,本文将由浅入深地介绍关于加强网页安全性的各种技术和技巧,对关心网页源代码版权和网页数据安全保护的读者有较大的帮助.  初级入门篇  对广大网页编写者来说,对源代码的保护是最为关注的,但往往却没有任何办法.辛辛苦苦编写的网页在浏览者面前毫无遮掩,只要被别人轻轻点击鼠标右键,选择(查看源代码)一项后,即可获得网页完全代码,甚至稍加修改后就成为他人的网页.本篇将通过采用JavaScript技术,对页面源代码的修改,使浏览者无法获得源码,达到保护代码的目的.  首先,应屏蔽Internet Explorer工具栏中-查看-源代码一项的功能,即将页面采用框架结构的方式.若你的页面并未使用框架结构,且不需使用框架结构,可使用"零框架"技术(即将页面分为左右两帧,左帧的宽度为1,右帧为原页面).该方法的代码如下:<html> <head> <title>欢迎光临网页教学网</TITLE> </HEAD> <FRAMESET COLS="1,*" frameborder=0 framespacing=0> <FRAME SRC="PS.HTM" NAME="count" noresize scrolling=no> <FRAME SRC="search.HTM" NAME="search" noresize> </frameset> </html>  将该文件存为主文件index.htm,建立一空文件ps.htm,原页面文件现另存为index.html(与主文件名仅在扩展名上略有不同).采用零框架技术有以下优点:  1.浏览者在用工具栏中的源代码项无法直接得到页面代码,仅能得到框架主文件的代码(即上述代码).  2.可利用左帧文件ps.htm加载一些网页的高级应用,如背景音乐,网页计数器,cookie应用等.  其次,应屏蔽鼠标右键的显示源文件功能,即在所需保护的页面文件(上例中为index.html文件)中加入以下代码:(当右键被点击时将出现图1所示提示框)<script Language="JavaScript"> function click() { if (event.button==2||event.button==3) {alert(""用右键要干嘛?"^_^") }} //引号中提示可自定义 document.onmousedown=click </script>  最后,为防止一些了解网页编写语言的人通过框架主文件中的连接手工找出被保护页面后获得源代码,还应在被保护页面中加入以下代码:<script language="javascript"> if(top==self)top.location="index.html" </script>  这段代码将提供跳回功能,使浏览器无法直接看到该页,而是自动跳回框架主文件index.html,起到保护该页面的作用.  在完成以上三个步骤,对你的主页按照框架结构进行了修改后,你的主页源代码将不能被浏览者在网上获得,可以小小庆贺一下了  另外,若你确实不想用框架页面,那么可用特殊的方法打开浏览器新窗口,再结合屏蔽鼠标的功能代码后亦可收到同样的效果,打开方法如下:<a href=javascript:window.open("key.html","被保护页面的标题","height=170,width=290,left=0,top=0,toolbar=0,location=0,directories=0,status=0,menubar=0,scrollbars=0,resizable=0,copyhistory=0") target=_blank>打开被保护页面的连接</a>  代码中,key.html为被保护页面的文件名.新窗口的高度height与宽度width的值可由用户自定义,单位为像素.  注意:嵌入式的 JavaScript代码应加在原文件的<head></head>元素区内.  中级深入篇  上篇中是采用JavaScript技术达到保护在线网页的目的.正所谓"强中自有强中手",有些人使用Webzip,TelePro,Offline等离线浏览器下载你的主页,就可绕过JavaScript保护在线网页的防线,将网页下载后再慢慢剖析.有矛必有盾,你亦可用JavaScript建立的动态转向文件是大多数离线浏览器无法下载你的网页,方法如下.你可将上例中的被保护页面更名为index1.html,而将文件index.html改为以下代码:<script> window.location.replace("index1.html") //本句产生网页跳转功能 </script>  对Internet Explorer5新增的离线浏览功能(脱机工作),以上方法有时失灵,可通过对网页设置cookie的高级技术达到保护的目的.一旦cookie超期,即使网页已被下载到本机也无法浏览,呵呵,厉害吧:)  应加入文件中的cookie代码段如下:<script language="JavaScript"> function getCookieVal (offset) { var endstr = document.cookie.indexOf (";", offset); if (endstr == -1) endstr = document.cookie.length; return unescape(document.cookie.substring(offset, endstr)); } function GetCookie (name) { var arg = name + "="; var alen = arg.length; var clen = document.cookie.length; var i = 0; while (i < clen) { var j = i + alen; if (document.cookie.substring(i, j) == arg) return getCookieVal (j); i = document.cookie.indexOf(" ", i) + 1; if (i == 0) break; } return null; } function SetCookie (name, value) { var argv = SetCookie.arguments; var argc = SetCookie.arguments.length; var expires = (2 < argc) ? argv[2] : true; var path = (3 < argc) ? argv[3] : true; var domain = (4 < argc) ? argv[4] : true; var secure = (5 < argc) ? argv[5] : true; //安全模式生效 document.cookie = name + "=" + escape (value) + ((expires == null) ? "" : ("; expires=" + expires.toGMTString())) + ((path == null) ? "" : ("; path=" + path)) + ((domain == null) ? "" : ("; domain=" + domain)) + ((secure == true) ? "; secure" : ""); } function ResetCounts(name) { visits = 0; SetCookie(expdate , "/", true, true); location.reload(); } </script> <script language="JavaScript"> var expdate = new Date(); var visits; expdate.setTime(expdate.getTime() + (24*60*60 * 1000)); //COOKIES超期时间设置,此处为1天 if(!(visits = GetCookie("visits"))) visits = 0; visits++; SetCookie(expdate, "/", true, true); </script>  如果你已经做到这一步了,那么你的网页所受到的保护就不再是常规意义上的出于道德观念或版权意识,而是真正的技术上的保护手段.  高级研究篇  对网页的保护并不仅仅是涉及源代码的保护,更应该包含对网页数据或网络数据库的保护.对网络数据库的保护可采用基于IIS的CGI接口的认证程序,SQL的安全技术,ASP安全认证程序,Java Applet安全认证程序等手段,属于更高层次的安全措施,包含大量内容,本文不作介绍.本篇将介绍应用JavaScript技术构造的页面认证接口.将仅供有限人群访问的需要数据保护的页面中加入以下代码:<script LANGUAGE="JAVASCRIPT"> <!-- loopy() function loopy() { var sWord ="" while (sWord != "hibow") { sWord = prompt("输入正确密码登陆! ") } alert("身份识别......允许登陆") } //--> </script>  注意:嵌入式的 JavaScript代码应加在原文件的<head></head>元素区内.  代码中字段sWord的值hibow为登陆被保护页面的密码.你可将自定义的密码告诉允许访问该页面的用户,仅当密码被正确输入后浏览者才可看见页面内容,否则将循环停留在密码登入框中(见图2),进不去喽  为了达到保护页面源代码及数据的最佳效果,可将本文介绍的所有方法相结合,这就要考验大家的悟性和能力了。  这样是锁不住代码的,只要先点左健不放,再点右健,在放左建,就能看了,如果你的主页是用ASP,PHP,或者CGI购建的,一般对方是看不到源代码的。防右键的方法已经过时了 还有一个办法就是把回车全去掉,把整个文件压缩。这样看到也看不清楚, 还不影响动行 希望能对你有帮助。
2023-07-31 07:40:581

Internet Explorer怎么进行网页提取

提取? 最简单的也就是网页另存了 ,在另存上 我推荐用火狐另存比较好 因为火狐存下来的代码 不会像ie那样代码都变大写之类的问题 可以原原本本存下来 如果想把站存下来 就正如楼上所说的 找个下载网站的 下载去 百度一下 网站整站下载 这玩意多得是 给你推荐 几款TeleportUltraTeleport Ultra所能做的,不仅仅是离线浏览某个网页(让你离线快速浏览某个网页的内容当然是它的一项重要功能),它可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,你还可以用它来创建某个网站的完整的镜象,作为创建你自己的网站的参考。WebZipWebZip 把一个网站下载并压缩到一个单独的 ZIP 文件中,可以帮您将某个站台全部或部份之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。且新一版的功能包括可排定时间来下载,亦加强相当漂亮的立体界面及传输的曲线图。Mihov Picture Downloader Mihov Picture Downloader 是一款用于从一个网页下载所有的图片的简单工具.只需要输入网络地址,其它的工作就由该软件去做.所有的图片将下载到你的计算机硬盘驱动器上的一个文件夹当中。WinHTTrack HTTrackWinHTTrack HTTrack 是一款简单易用的离线浏览器实用工具.该软件允许你从互联网上传输一个网站到一个本地目录当中,从服务器创建递归所有结构,获得 html,图像以及其它文件到你的计算机当中.相关的链接被重新创建,因此你可以自由地浏览本地的网站(适用于任何浏览器).你可以把若干个网站镜像到一起,以便你可以从一个网站跳转到另一个网站上.你还可以更新现存的镜像站点,或者继续一个被中断的传输.该带有许多选项和功能的装置是完全可配置的.该软件的资源是开放的。MaxprogWebDumperMaxprogWebDumper是一网站内容下载工具, 可以自动下载一网页及其链接的所有内容, 包括内置的多媒体内容, 供你离线浏览.
2023-07-31 07:41:065

如何下载网站

一般使用离线浏览工具下载整个网站webzip把一个网站下载并压缩到一个单独的ZIP 文件中,可以帮您将某个站台全部或部份 之资料以ZIP格式压缩起来,可供你日后快速浏览这个网站。http://download.enet.com.cn/html/010102002050901.htmlwebdup可按照用户的设置下载网页以及相关链接,甚至下载整个网站,更具有备份历次下载 记录和对下载信息进行分类管理的功能。http://www.skycn.com/soft/877.html
2023-07-31 07:41:223

哪里有下载网站的小软件,谢谢了!

WebZiphttp://download.enet.com.cn/html/010102002050901.html
2023-07-31 07:41:291

我的电脑不保存网页了

网冲浪,经常会遇到心仪的网页,可是保存时往往会遇到各种问题,希望下面的解决方法对你有帮助。 一、现象:网页没有下拉菜单,无法使用“文件→另存为”,而且右键也被锁死 方法1:在目标网页上点左键,使用“Ctrl+A”组合键全选,然后粘贴到编辑软件(如Word、记事本等)里即可。 方法2:在目标网页上按住鼠标右键,不要松开,将鼠标移动到右键弹出窗口的“确定”按钮上,单击鼠标左键,窗口便会消失,再移动鼠标到目标网页上,松开右键即可。 方法3:有些网站按鼠标右键弹出的是收藏夹窗口,这时按住右键,不要移动鼠标,使用键盘的Tab键移动焦点到弹出窗口的“取消”按钮上,然后按一下空格键,窗口消失,再松开右键即可. 二、现象:网页在出现保存进度条时停止响应 方法1:出现这种问题最可能的原因是站点服务器或者网络路由器繁忙。这时只须及时终止原来的保存任务(即点击“取消”),重新开始保存操作,让系统重新向服务器提交申请即可; 方法2:先选择“文件→脱机工作”,再开始保存,这样IE将从你设定的临时文件缓冲区中读取数据。这时保存是肯定能顺利进行的,但如果你原来浏览时网页就不完整的话,保存的结果也是不完整的。 三、现象:下载后浏览时网页为空白,没有内容 方法1:某些网站出于安全或版权方面的考虑,采用一些特殊的网页代码,导致无法正常保存网页。单击“收藏→添加到收藏夹”,在“添加到收藏夹”窗口中,选中“允许脱机浏览”复选框,“确定”后IE浏览器就开始自动下载该网页了,以后只要从“收藏夹”中打开该网页即可脱机浏览。 方法2:单击IE工具栏中的“编辑”图标 , 选择“使用FrontPage编辑”图标 (在某些情况下,IE浏览器会直接出现FrontPage图标),则网页代码将出现在FrontPage编辑器里,这时执行“文件→另存为”即可。使用其他能编辑网页的工具亦可。 四、使用专门工具 方法1:利用WebZip WebZip可以把一个网站下载并压缩到一个单独的 ZIP 文件中,而且可以设定时间来下载,也可以以相当直观的立体界面及传输曲线图表示下载进度。WebZip最大的好处在于可以按照使用者的意愿下载相关的链接资源。 方法2:利用Teleport Pro Teleport Pro能够离线浏览某个网页,还可以从Internet的任何地方抓回你想要的任何文件,它可以在你指定的时间自动登录到你指定的网站下载你指定的内容,还可以创建某个网站的完整的镜像。 方法3:其他方法 如果仅仅要得到网页中的某些资源,比如动画、视频等,则可以采用一些专用软件进行下载。例如,想下载流媒体,可以使用StreamBox VCR;如果想下载Flash文件,则可以直接在脱机状态下到“Temporary Internet Files”文件夹中寻找。
2023-07-31 07:41:383