如何在SAE上安装typecho博客系统

如何在SAE上安装typecho博客系统,第1张

方法/步骤

1

百度搜索“SAE”,注册并登录。

进入SAE主界面,点击“创建新应用”。

2

在这里填写应用(网站)的二级域名站点名称等基本信息。

值得注意的是二级域名最好是有意义容易记的的英文单词或字母。

3

开发语言选择“PHP5.3”,可以看到这里有很多应用。

直接选择便可以很快速的安装你网站的建站系统。

(那个好像是要收费,记不得了,嫌麻烦的可以试试)

这里我们选择空应用。

4

创建成功后返回你的主界面。

点击“管理应用”,进入应用管理详情页。

5

在这里,可能部分初学者会觉得很恼火,有那么多东西需要设置?

事实上很简单,我们并不会用上它的全部功能。

在百度搜索“typecho”,下载好源代码程序,是一个“tar.gz”的压缩包。

这里我们需要将它解压,重新打包成"zip"格式的压缩包,因为SAE不支持“tar.gz”格式。

6

点击“代码管理”>创建一个新版本

代码版本填写数字“1”即可。

7

创建代码版本完成后点击“ *** 作”按钮,进行网站源代码的上传。

8

代码上传成功后会有提示,

成功上传代码后再回到主界面。

9

同样点击“管理应用”,进入应用的详细设置。

这里我们需要初始化我们的mysql,memcache,storage设置。

mysql默认即可。

memcache初始化值设置10M即可。

storage需要新建一个domain用于储存网站多媒体数据,名称随意。

万事具备,在浏览器输入你的二级域名,进入网站安装界面。

填写你的网站基本信息,其余项默认即可。

系统会自动匹配你的SAE环境。

点击下一步,会报错,不要紧张,这是正常的。

因为SAE不具有写入权限,这需要你自己创建一个文件。

百度“SVN”,现在并安装好SVN工具。

这时如果直接点击应用程序图标会报错的。

我们需要在硬盘里新建一个文件夹,用于储存SVN导出的数据。

右键点击SVN Update。

第一行填写你的SVN域名,其余默认即可。

这里填写你的用户名和安全密码。

注意:安全密码可能会和你的微博密码不同,具体看你的设置。

可已看到我们已经成功导出了我们网站的源代码程序。

我们安装网站的提示用记事本创建一个config.inc.php文件,将输入框内容复制到此文件中。

选中此文件,右键SVN>Add。成功添加后,选中此文件,右键SVN Commit。

上传文件。

返回你的网站点击下一步即可成功安装你的网站了。

系统会核对你的账户和密码。

重新在浏览器输入你的二级域名即可看到网站前台“Hello World”,

说明你已经创建成功,此时你可以登陆网站后台发布你的文章啦!

提交

如何删除复制文字产生的word回车换行符

发布时间:2022/10/18 11:50:25

我们通常在使用Word时,有时会因为复制一些文字而产生很多的回车符,那么怎样去掉了,下面的方法马上告诉你!

Word中的回车符分为两种:一种为Word自带的回车符,一种为网络文件产生的回车符,称之为换行符.清除方法如下:1、编辑-->替换-->替换-->高级-->特殊字符-->选择段落标记-->单击全部替换.就OK了.保证你的文档中的回车符干干净净,只剩一个. 或者:编辑-->替换-->在查找内容里面输入 ^p 然后替换里面可以不输人任何东西2、看到那些不是回车符哦,一般来讲网页中的都是换行符.你只需要将 (选择段落标记)这一步改成(选择人工分页符)就可以了.或者:编辑-->替换-->在查找内容里面输入 ^l 然后替换里面可以不输人任何东西

我们团队有着十几年的期货程序化交易算法与软件研发经验,基于C++ Qt技术研发了具有自主知识产权的期货智能程序化交易一体化系统平台,该平台封装了二百多个量化指标,具有低时延、高性能、小滑点、可定制和跨平台的特点。团队致力于将人工智能技术与传统的程序化交易技术相结合为客户提供灵活可定制的期货智能程序化交易服务和产品。

本文链接:https://www.ngui.cc/el/1670379.html

查看全文

Longformer详解

Introduction Longformer是一种可高效处理长文本的模型,出自AllenAI 2020年4月10日。目前已经开源,而且可以通过huggingface快速使用 传统Transformer-based模型在处理长文本时存在一些问题,因为它们均采用"我全都要看"型的atten…

2023/1/23 19:29:45

从loss的硬截断、软化到Focal Loss

对于二分类模型,我们总希望模型能够给正样本输出1,负样本输出0,但限于模型的拟合能力等问题,一般来说做不到这一点。而事实上在预测中,我们也是认为大于0.5的就是正样本了,小于0.5的就是负样本。这样就意味…

2023/1/23 19:29:35

去掉Attention的Softmax,复杂度降为O(n)

众所周知,尽管基于Attention机制的Transformer类模型有着良好的并行性能,但它的空间和时间复杂度都是O(n2)\mathcal{O}(n^2)O(n2)级别的,nnn是序列长度,所以当nnn比较大时Transformer模型的计算量难以承受。近来,也有不…

2023/1/23 19:29:29

突破瓶颈,打造更强大的 Transformer

自《Attention is All You Need》一文发布后,基于Multi-Head Attention的Transformer模型开始流行起来,而BERT模型更是将Transformer模型的热度推上了又一个高峰。当然,技术的探索是无止境的,改进的工作也相继涌现:有改…

2023/1/23 19:29:24

Seq2Seq重复解码问题追根溯源

本篇文章的顺序会有些奇怪,一般来说应该先分析为什么会出现解码中停不下来或者是重复解码的问题,然后提出解决这个问题的办法,但由于分析为什么这个过程涉及到的数学公式繁多,过程也很复杂,考虑到不是那么多同学对这个…

2023/1/23 19:29:18

使用分词增强Typecho的搜索功能

本博客是使用Typecho搭建的,侧边提供了搜索功能,然而Typecho内置的搜索功能仅仅只是基于字符串的全匹配查找,功能非常鸡肋,很多合理的查询都没法得到结果,比如“Transformer的文章”、“BERT的相关内容”都没有查询结果…

2023/1/23 19:29:13

稀疏Softmax(Sparse Softmax)

本文源自于SPACES:“抽取-生成”式长文本摘要(法研杯总结),原文其实是对一个比赛的总结,里面提到了很多Trick,其中有一个叫做稀疏Softmax(Sparse Softmax)的东西吸引了我的注意&…

2023/1/23 19:29:07

最强的数据扩增方法竟然是添加标点符号?

今天的这篇文章源自于EMNLP 2021 Findings,论文标题为《AEDA: An Easier Data Augmentation Technique for Text Classification》。实际上用一句话即可总结全文:对于文本分类任务来说,在句子中插入一些标点符号是最强的数据扩增方法 AEDA A…

2023/1/23 19:29:01

PyTorch中的梯度累积

我们在训练神经网络的时候,超参数batch_size的大小会对模型最终效果产生很大的影响,通常的经验是,batch_size越小效果越差;batch_size越大模型越稳定。理想很丰满,现实很骨感,很多时候不是你想增大batch_si…

2023/1/23 19:28:55

训练一个专门捣乱的模型

三位韩国人在EMNLP 2021 Findings上发表了一篇论文,名为Devil’s Advocate: Novel Boosting Ensemble Method from Psychological Findings for Text Classification,其中Devil’s Advocate有一部同名电影,翻译过来叫「魔鬼代言人」ÿ…

2023/1/23 19:28:49

博客系统项目的自动化测试

作者:~小明学编程 文章专栏:测试开发 格言:热爱编程的,终将被编程所厚爱。 目录 博客界面 测试用例 界面测试 功能测试 性能测试 兼容性测试 易用性测试 安全性测试​编辑自动化测试 登录界面的测试 界面文字模块 测…

2023/1/23 19:27:46

国内dToF Sensor厂商(持续更新)

dtof sensor最早处于1D消费级的状态,而且一直都是被外国的公司所垄断,比如ST意法半导体,AMS艾迈斯欧司朗,安森美,这几家的每年的市场销售收入可能达到了十几亿美金的规模,本来他们都在闷声发大财。 但是苹果dToF LiDAR技术的推广,让dtof成为了整个行业关注的焦点,很明显…

2023/1/23 19:24:50

如何与他人交流

上期我们讲了打破预期,顺应主体,我的别人交流,只有在不把别人当成对象(工具人),而是把对方当成主体的情况下(让别人感受到尊重),这是相互尊重的终极本质,也是唯一方法.把别人当人看.认同对方,对方也会认同你.自信从何而来自信本意为相信自己,所以自信本应该是由内而外的事物,但…

2023/1/23 19:23:53


欢迎分享,转载请注明来源:内存溢出

原文地址:https://54852.com/bake/11839557.html

(0)
打赏 微信扫一扫微信扫一扫 支付宝扫一扫支付宝扫一扫
上一篇 2023-05-19
下一篇2023-05-19

发表评论

登录后才能评论

评论列表(0条)

    保存