-
添加日期:2019-07-16 09:47:26 发布:smiling
设置了自定义表单提交功能 ,最近登录后台发现很多留言,但看不到留言的具体发布时间 。后来注意到一个细节,每次登陆后台,织梦系统都会记录登陆时间和IP地址,这说明织梦自带IP获取和时间获取。那 ...
-
添加日期:2019-07-16 09:43:21 发布:smiling
{dede:global cfg_memberurl } 指的是会员中心 对应 member 目录{dede:global cfg_cmsurl } 对应的是网站根目录 {dede:global cfg_dataurl } data目录对应 data {dede:global cfg_basehost } ...
-
添加日期:2019-07-02 14:37:07 发布:smiling
kindeditor编辑器是非常优秀的编辑器,连织梦官网都提供了这样的编辑器插件下载,但更换了这样的一款编辑器后,栏目内容却无法保存。通过以下的修改可以解决dede更换成kindeditor后栏目内容无法保 ...
-
添加日期:2019-07-02 14:35:44 发布:smiling
1、调出所有栏目以及栏目下的二级栏目{dede:channelartlisttypeid=& 39;top& 39;}{dede:fieldname=& 39;typename& 39; }{dede:channeltype=& 39;son& 39;noself=& 39;yes& 39;}[field:typename ]{ ...
-
添加日期:2019-07-02 14:13:39 发布:smiling
织梦CMS调用缩略图一般默认是绝对地址的。但有时候,我们都想把它改成自己喜欢的二级域,,或优化需要。。如,img xxx com 或 img66 xxx com 工具 原料dede include arc listview class php ...
-
添加日期:2019-06-22 14:53:00 发布:smiling
注意:涉及数据库操作请先备份,以防万一。DedeCMS用户经常碰到数据表出现报错dede_search_keywords& 39; is marked as crashed and should be repaired,这个说明你的数据表可能是崩溃了, ...
-
添加日期:2019-06-22 14:51:21 发布:smiling
一、网站后台安全设置1、更改后台登录地址模块-文件管理器-dede-改名-重新登录2、data common inc php更改为只读此文件为数据库连接文件,为了安全考虑,将其改为只读。登录ftp连接远程空间,找到 ...
-
添加日期:2019-06-21 14:29:18 发布:smiling
dedecms程序非常受站长的喜欢,在小编的印象中用的人非常之多,在调用的时候也确实非常方便,常规的默认的调用是在当前栏目下调用,但是,在很多时候都会出现导航栏指定到某个栏目下的栏目,小编在 ...
-
添加日期:2019-06-21 14:22:51 发布:smiling
dedecms建站seo几点注意事项:1 如果是linux服务器,南京seo优化建议务必修改apache下默认主页。具体操作办法如下: etc httpd conf httpd conf etc httpd conf d php conf修改上面两个文件的 di ...
-
添加日期:2019-06-21 14:16:48 发布:smiling
我们经常遇到这种情况,在一篇文章里面同时出现进口车、平行进口车、路虎平行进口车这几个关键字,程序会优先使用短的词的链接。解决方法:打开: include arc archives class php 搜索$query = ...
-
添加日期:2019-06-21 14:10:21 发布:smiling
织梦上传到空间后{dede:global cfg_webname }{dede:global cfg_keywords }等标签调用不正确。|现象:网站在本机测试,一切正常,但是上传到空间后,发现生成的首页源码里,{dede:global cfg_keywor ...
-
添加日期:2019-06-21 14:08:40 发布:smiling
一、通过dedecms的频道管理功能进行设置后台管理->频道管理->选择相应频道的修改选项->高级选项,这里可以直接修改,系统提供有下列几种命名规则:{Y}、{M}、{D} 年月日{timestamp} INT类型的UNI ...
-
添加日期:2019-06-21 13:57:01 发布:smiling
一、dede优化之网站的基本设置1、首先是404页面的设置,它能够减少网站内部的死链接。2、其次是网站robots:txt的设置,由于织梦有自带的robots,可以根据网站实际情况来屏蔽一些网站不需要抓...