码迷,mamicode.com
首页 >  
搜索关键字:hack    ( 1283个结果
css美化、优化、合并工具推荐
其实很多时候,我们写完css规则之后,我们思考的无非就是3件事情:验证美化压缩当然无论是我们自己做这样的工具还是寻找一些比较好的成熟的工具,都有几个期望:是否支持一些ie下的hack方式:*property:value_property:valueproperty:valye\9是否支持@impor...
分类:Web程序   时间:2014-09-15 09:53:48    阅读次数:198
CSS Hack
摘要: 在我们制作页面时CSS hack由于不同的浏览器,比如Internet Explorer,Mozilla Firefox等,对CSS的解析认识不一样,因此会导致生成的页面效果不一样,得不到我们所需要的页面效果。 这个时候我们就需要针对不同的浏览器去写不同的CSS,让它能够同时兼容不同的浏.....
分类:Web程序   时间:2014-09-15 08:46:08    阅读次数:245
【css】多行文字图片混排容器内垂直居中解决方案
css:.box-wrap{display:table;width:200px;height:200px;*position:relative;}/*最外边的容器,需固定宽高*/.box-hack{display:table-cell;height:200px;vertical-align:midd...
分类:Web程序   时间:2014-09-12 20:29:33    阅读次数:200
CSS Hack技术(一)
这世间坑爹的东西不少,浏览器可以算做一件,尤其的IE浏览器。关于浏览器的吐槽已经有不少了,我也就不在这添油加醋了。不过吐槽终究只是泄一时之愤,解决问题才是关键,今天我们就来讲一讲浏览器(样式)兼容的技术——CSS Hack。浏览器不兼容有很多方面,有的是javascript脚本不兼容,也有的是样式(...
分类:Web程序   时间:2014-09-12 14:56:33    阅读次数:196
【ThinkingInC++】45、比较const和非const成员函数的例子
/** * 书本:【ThinkingInC++】 * 功能:旧代码中的enum hack * 时间:2014年9月10日08:35:13 * 作者:cutter_point */ #include #include #include using namespace std; class Bunch { enum {size=1000}; int i[size]; }; in...
分类:编程语言   时间:2014-09-10 09:40:00    阅读次数:263
css-hack
css hack就是针对不同的浏览器写不同的CSS code的过程,就叫CSS hack!原理:由于不同的浏览器对CSS的支持及解析结果不一样,还由于CSS中的优先级的关系。我们就可以根据这个来针对不同的浏览器来写不同的CSS。CSS Hack大致有3种表现形式,CSS类内部Hack、选择器Hack...
分类:Web程序   时间:2014-09-09 11:18:18    阅读次数:253
css hack 总结 包括ie6-11,chrome,opera,firefox
Css Hack ie各版本 opera chrome safari firefox css hack 测试
分类:Web程序   时间:2014-09-06 13:37:33    阅读次数:202
css hack 总结 包括ie6-11,chrome,opera,firefox
1 2 3 4 Css Hack ie各版本 opera chrome safari firefox 5 6 26 27 28 css hack 测试 29 30 不用多说了。。。代码写的很清楚了。。。由于:root 权重较大 所以 ie10 和 ie11 都加了!impo...
分类:Web程序   时间:2014-09-05 22:25:02    阅读次数:362
CSS漏洞
CSS Hack ! *按照其先后顺序上面这段代码,在不同浏览器中『CSS Hack ! 』将会显示出不同的颜色出来。其中Firefox和Opera显示黑色(#000000),IE8显示蓝色(#0000FF),IE7...
分类:Web程序   时间:2014-09-05 12:40:11    阅读次数:246
WeChall Training: WWW-Robots
Robots协议(也称为爬虫协议、机器人协议等)的全称是“网络爬虫排除标准”(Robots Exclusion Protocol),网站通过Robots协议告诉搜索引擎哪些页面可以抓取,哪些页面不能抓取。Robots协议的本质是网站和搜索引擎爬虫的沟通方式,用来指导搜索引擎更好地抓取网站内容,而不是作为搜索引擎之间互相限制和不正当竞争的工具。 找到wechall的robots.txt    ht...
分类:其他好文   时间:2014-09-04 15:03:09    阅读次数:542
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!