码迷,mamicode.com
首页 >  
搜索关键字:页面数据    ( 581个结果
7/6一些知识点
delete * from table id in (..,..,..) 批量删除 @RequestParam 自动注入参数 @ResponseBody 返回页面数据转化为json @RequestMapping("/rest/item/delete") value="" url路径 param=" ...
分类:其他好文   时间:2017-07-06 16:49:07    阅读次数:121
spring boot (三): 热部署
介绍了Spring boot实现热部署的两种方式,这两种方法分别是使用 Spring Loaded和使用spring-boot-devtools进行热部署。 热部署是什么 大家都知道在项目开发过程中,常常会改动页面数据或者修改数据结构,为了显示改动效果,往往需要重启应用查看改变效果,其实就是重新编译 ...
分类:编程语言   时间:2017-07-06 01:07:18    阅读次数:203
浅谈微信小程序实现页面数据显示
前段时间公司需要一个小程序去实现某项简单的功能,本来作为一个后台人员,只需要完成数据接口和文档部分就可以了; 后来对这小程序好奇再加上文档蛮完整的,然后抽了好几天时间去研究了一下,不多说了。。 1、首先来看简单的目录结构: 2、下面是app.json 需要注意的地方: 3、接着是index页面的数据 ...
分类:微信   时间:2017-07-05 13:42:29    阅读次数:252
实现excel导入导出功能,excel导入数据到页面中,页面数据导出生成excel文件
今天接到项目中的一个功能,要实现excel的导入,导出功能。这个看起来思路比较清楚,但是做起了就遇到了不少问题。 不过核心的问题,大家也不会遇到了。每个项目前台页面,以及数据填充方式都不一样,不过大多都是以json数据填充的。在导入excel填充json数据到页面时,真的让我差点吐血了。在做这个导入 ...
分类:其他好文   时间:2017-07-01 17:29:43    阅读次数:147
图片的懒加载方式
在这先说一下什么叫做懒加载,懒加载就是延尺加载。而什么时候要用到延迟加载呢,答案就是当我们所访问的页面数据量过大的时候,明显用缓存不太合适的时候。 因为内存有限,为了减少并发量,减少系统资源的消耗成了必然。我们只有让数据在需要的时候才进行加载。就像浏览大量图片的网页的时候我们如果不用懒加载的方 式, ...
分类:其他好文   时间:2017-06-29 10:10:29    阅读次数:160
在jquery中使用AJAX
在jquery中使用封装好的AJAX会对开发效率起到极大的便利,因此掌握jquery中的一系列AJAX封装函数是做好页面数据交互的必备技能; 1、在之前,我们首先需要详细了解AJAX异步请求接受的五中响应消息,根据不同的响应类型进行不同的操作 (1)text/plain // 明文 服务器端: he ...
分类:Web程序   时间:2017-06-27 08:09:55    阅读次数:230
ssh框架中文保存数据库MySQL乱码
检查后台获取前端页面数据打印到console控制台无乱码:tomcat配置没有问题; 检查MySQL数据库编码设置:字符集:utf8 -- UTF-8 Unicode,排序规则:utf8_general_ci无误,数据库可以保存中文。 两方面无误后保存乱码:在ssh框架配置数据库连接参数后追加 “? ...
分类:数据库   时间:2017-06-24 21:49:30    阅读次数:209
j2ee之struts2表单细节处理
/struts-tags中自带了很多标签 比如一个简单的登录表单,其中自带了很多的样式,实际上如果你不需要用到struts的实际功能的时候不建议使用 你可以通过设置属性 theme="simple"来取消他自带的样式 其次是ModelDriven,意思是直接把实体类当成页面数据的收集对象。在Acti ...
分类:其他好文   时间:2017-06-23 11:44:30    阅读次数:194
Angularjs在360兼容模式下取数据缓存问题解决办法
测试提了一个bug,在360浏览器兼容模式下,删除页面数据需要手动刷新浏览器才能看到最新的数据。首先要复现当时的问题,很容易就复现了,但是发现在360浏览器兼容模式下无法打开开发者工具。好在经过反复重装之后,终于打开了开发者工具,经过跟踪发现,第一次删除数据时可以正常刷新,第二次或以后的删除将无法刷 ...
分类:Web程序   时间:2017-06-21 22:03:58    阅读次数:236
2-2 搜索引擎工作原理简介
搜索引擎的工作过程大体上可以分成三个阶段:1、爬行和抓取:搜索引擎蜘蛛通过跟踪链接访问网页,获得页面HTML代码存入数据库。(1)蜘蛛(2)跟踪链接(3)吸引蜘蛛(4)地址库(5)文件存储(6)爬行时的复制内容检测2、预处理:索引程序对抓取来的页面数据进行文字提娶中文..
分类:其他好文   时间:2017-06-21 20:01:10    阅读次数:154
581条   上一页 1 ... 31 32 33 34 35 ... 59 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!