Servlet监听器、过滤器与Spring拦截器

一、监听器 Servlet监听器是指这样的实例对象,首先它实现了Servlet规范中定义的某些Listener接口,然后由Servlet容器实例化,并在整个web application生命周期中监听某些事件,对监听到的事件调用相应的方法进行处理。 Servlet监听器主要包括ServletContextListener、HttpSessionListener、ServletRequestListener这三大类监听器。 ServletContextListener   负责监听Servlet上下文(亦即整个web application)的创建/销毁事件 HttpSessionListener   负责监听Session会话的创建/销毁事件 ServletRequestListener   负责监听用户请求的发起/返回事件。 当这些事件发生时,会自动触发已注册的监听器实例来进行相应处理。 Servlet监听器需要在web项目的web.xml文件中注册,或者使用@WebListener注解。 以一个简单例子作为说明: package com.funway.listener; import javax.servlet.ServletContextEvent; import javax.servlet.ServletContextListener; […]

关于Servlet的输出中文乱码问题

最近在看一个java教程,跟着里面写了一段Servlet代码: @Override protected void doGet(HttpServletRequest req, HttpServletResponse resp) throws ServletException, IOException { System.out.println("处理GET请求"); PrintWriter out = resp.getWriter(); resp.setContentType("text/html;charset=UTF-8"); out.println("<h1>这是一个SERVLET</h1>"); }

python爬虫

好像从python开始流行起,他就与爬虫扯上关系了。一提起python就想到爬虫程序,可能是因为python提供的库(模块)比较方便吧,不管是自带的urllib,还是各种第三方库。总结一下我所了解的关于python爬虫的知识,我觉得可以将这些库分为下面四大类:http协议库,文档解析库,模拟浏览器,爬虫框架。 1. urllib、urllib2、urllib3、requests urllib、urllib2是python 2自带的http库,它们负责请求url链接并返回结果。urllib2并不完全是对urllib的升级,有时候得urllib跟urllib2一起用,比如当你想在POST请求中带上参数的话,就得用urllib.urlencode()来格式化参数,就是这么蛋疼。不过在python 3后,urllib跟urllib2就合并了。 自带的urllib、urllib2有很多局限,比如说链接不可重用(http请求头的connection值总是close)。 urllib3、requests都是针对urllib、urllib2改进的第三方库。requests的底层是用urllib3来实现的,并且比urllib3提供了更强大的接口。 so,可以说,现在最方便的http库应该就是requests了。 2. beautiful soup beautiful soup是用来解析html、xml文档的第三方库,它支持多种解析引擎(包括原生的html引擎、lxml引擎、html5lib引擎)。 通常的工作流程是先使用urllib库请求某个url,然后将返回的html数据传递给beautiful soup进行解析。 通过urllib(requests)+beautiful soup结合可以很好地爬取静态网页的内容。但现在的web技术,Ajax跟node.js大行其道,很多网页内容是通过javascript动态生成的,简单地html爬虫对此根本就无能为力,除非你能破译出javascript动态加载的目标url,然后再访问该地址并解析数据。或者,可以考虑使用“模拟”浏览器来解析页面的dom模型,并进行操作。 3. ghost、selenium

python小技巧与坑

这几天打算用python写个小爬虫,就找出先前写python时候整理的一份小文档,顺便把它贴到博客上面来,以后如果还有其他心得,也一并记录在这里好了。

写在2015之尾,2016之初

其实在上周末参加完翔总的结婚酒宴后就倍受刺激了,一桌同学,话题总归是大家的近况。有跳槽的、有创业的、有博士毕业的。感觉大家的路都越走越好。而我自己却又过了浑浑噩噩一事无成的一年。 开这个博客是在2014年11月底,当时还想着把汤圆网做完,再把ios端的app给写出来,可后面却不了了之了。 15年3月,跟王林他们聊起大家尝试做gambling游戏,当时找了好多网狐平台的源码,还特意去深圳跟小猴交流了一下。跟几个朋友简单的商量,觉得应该放弃PC端,直接搞手游。但其实因为大家都有各自的工作,根本没有精力去投入,所以这个计划也就在构思的过程中就无疾而终了。只有我因为比较闲,还继续去了解了一些游戏开发的框架,看了下cocos2d、pomelo、workerman,但都只是浅尝辄止。 7月,陈锦的小舅子说他们公司有个网站的活,问我接不接。一个境外旅行社网站,涉及订单处理、国外网银支付以及代理商提成这些业务逻辑,当时觉得太复杂了,怕一个人搞不定,在陈锦那边不好交代,没敢自己接。然后跟小林子商量了一下,叫他来接这个活,我们两个一起搞,可以买一个叫做“思途旅游”的CMS系统进行二次开发。当时我们开价10w,结果对方觉得价格太高,没成。=。=# 8月,由于九条还有陈老师的关系,加上gambling之心不死,就去了解了下六合彩跟足彩的事情。我自己本来对博彩是一无所知的,那一两个礼拜疯狂的查找跟六合彩、足彩有关的博彩知识,找到一些流出的六合彩网站源码。但搭起来的网站感觉特别搓,像上个世纪的网站,就想着自己重新写一份,然后还写了份需求文档跟实现计划给小林子看,想拉他一起搞。正准备要开始分工合作了。 10月就到眼前了,之前就跟老婆说好10月份要开始装修新房,陪老婆跑装修,看材料。这样一搞,到现在,房子装修的差不多了,但自己想做的事也耽搁了。感觉自己的执行力真是太差了!!!一、两天的事情,我可以做的好好的,但一个月两个月,我就很难坚持下来,很难沉下心来把事情坚持完成。 2015年,除了“事业”上没有任何进展外,同样很失败的是今年的初入股市与黄金。14年底的时候,就听B哥他们鼓吹大牛市要来了,当时想着确实要试试、抓紧这波牛市,但苦于手中没钱。35块的时候收藏了比亚迪,想着过完年发年终奖的时候就拿点钱出来买,但没想到今年单位的降薪力度没人性到连年终奖都砍掉了,而且抬头一看比亚迪,股价都60块了,只好作罢。5月中的时候有了点钱,并且过分迷信了下面这张图片,天真的以为15年的牛市也能坚持到10月,大盘起码到6000多点。就迫不及待把7、8W投入股市,结果6月初,股市急转直下、泡沫破灭。到现在为止还亏着20%。。。 除了股市,今年还尝试了炒黄金期货,我个人是看跌黄金的。当时应该是在国际金价1100刀,人民币汇率6.2多,国内金220元的时候卖开仓。结果在8月的时候,人民币汇率暴跌到6.4,同时国际金价又有所反弹,导致国内金暴涨到240多元。我没有做好止损被爆仓了。心碎。到现在国际金价1060,可人民币汇率跌到了6.5,国内金价223。相当于近期做空黄金赚的钱还不够补上人民币贬值的损失。(12月初听书记说他们那边有请xx经济学教授讲课,说到人民币贬值问题,政府希望能控制再汇率6.5,而国外机构预计将可能贬值到8。书记说折个中,当心人民币贬值到7.3。虽然不希望如此,但我觉得还是有可能的,且留意吧。) 2015年初跟智力办了泰拳的卡,想去打拳健身,结果去了两次,嫌太远了没有坚持下来。后来下狠心买了双nike air打算跟小强去白云会议中心夜跑,到现在总共跑了大概5次=。=# 就这样子,2015就这么过完了,真是一事无成,还亏了不少钱,心疼。。。希望2016年,能起码坚持做好一件事情吧。不要到了16年底又开始后悔自己不好好做事。

python的浏览器“驱动”库:selenium

上两周的时候,陈怡同学问我怎么通过程序自动化截屏浏览器页面,她说有篇论文用的是python与selenium。当时我的心理活动是这样的:“卧槽selenium是什么鬼,女博士果然是见多识广。” =。=# 然后查了一下,selenium大概可以理解成一个浏览器模拟器(或者实际上是浏览器驱动器,Selenium WebDriver),selenium提供多种编程语言的接口让我们可以通过程序来驱动本地浏览器,并执行我们想要的操作。 以陈怡同学的需求为例,就是通过python调用selenium接口来驱动我的Firefox,打开xx网站,截图保存。 我的环境: python 2.7.6,selenium 2.48.0 安装selenium库: 参考https://pypi.python.org/pypi/selenium #从selenium库引入webdriver类 from selenium import webdriver #新建一个browser对象(驱动firefox浏览器) browser = webdriver.Firefox()

ssh代理:给系统分配一个无登陆权限的账号来做ssh代理

之前申请了一个免费的亚马逊云服务器作为VPN Server,同时自己电脑使用默认的ubuntu账号进行ssh翻墙:firefox+foxyproxy+ssh简直不要太方便。附上一份本机开启ssh隧道的shell脚本: #! /bin/bash pid=$(ps -ef|grep 'ssh -qTfnN -D 3128'|grep -v grep|awk '{print $2}') if [[ $pid = "" ]]

小蝌蚪聊天室

1. 新建项目 创建如下目录与文件: game-server是我们“游戏”的后端服务器目录,负责处理用户的登陆、聊天等相关逻辑。web-server是我们网站的服务器目录。 { "name": "pomelo-todpole-chat", "version": "0.0.1", "private": false, "dependencies": { "pomelo": "1.1.6" } } { "name": "pomelo-todpole-chat",

pomelo start命令的背后-pomelo源码分析(1)

首先,$which pomelo发现全局的pomelo命令指向的是/usr/local/bin/pomelo文件,该文件是/usr/local/lib/node_modules/pomelo/bin/pomelo文件的软链接,直接查看该文件的内容,我们发现这个pomelo其实就是一个js文件。而且头一行为: ,这句话表示告诉系统,我们要调用node进程来执行pomelo这个js脚本文件。$pomelo start = $node /usr/local/bin/pomelo;$pomelo start -D = $node /usr/local/bin/pomelo start -D。 再往下看,有这么一段代码: program.command('start') .description('start the application') .option('-e,

Scroll to Top