
先在看来目前网络上大热的hadoop才是廉价的解决方案,关键概念比较新,他的理念来自于google公布的goole file system原理,我以前也只是听到这个名字,看来有机会可以多了解一下
本人目前的认识,对两个方案比较如下
stornext 需要硬件支持cluster,基于共享存储fc/iscsi, 可以自动备份文件到磁带,也可以自动读取存在磁带上的文件,支持居于数据块的优化存储(理论上100个用户存同一部电影,如果原始文件是同一个,即使每个版本删节掉的镜头完全不一样,最终它们共同占用的磁盘空间还是一部完整电影的空间)
hadoop dfs不需要共享存储,可以直接使用多服务器上的本地硬盘,通过冗余允许部分节点失效,扩展比较灵活,费用相对低廉,对流媒体的支持较好
估计是权限问题吧。lz试试在linux下修改视频文件权限。
sudo chmod 777 视频文件名称
或者su root
chmod 777 视频文件名称。
linux下文件都有权限的。
有时候造成一些文件在别的系统没有权限,
尤其是lz用root用户 *** 作的时候。
这个太高深了……你的开发板已经做好视频输入支持了么?这部分我觉得你可以找个开源的视频录制软件参考一下。
视频传输貌似就没有什么特别的了吧?把视频数据封包发送就行了。你会固定大小的文件传送,是不是你就是直接抄教程的……
印象里传输文件,就是一个循环而已,你把这个循环拆出来为单循环,一次传输一次你的视频封包不就可以了。
视频压缩协议都有固定封包大小设计的(动态大小封包和流数据咱就先不考虑了啊……)。你把这个封包当一个固定大小的文件发过去不就可以了。
我觉得,你先把这个处理程序做成本地程序线程间的传递(感觉函数间的传递都可以……),之后在把数据传递移植为网络传输,这个开发会不会更容易解决数据传输的问题?至少两边的数据处理方式你就明白了,在想怎么网络传输应该能不用考虑数据大小的问题(记得很多视频压缩协议里一个封包里面一个字节损坏,都会导致这个封包数据全部出现错误而只能废弃)
欢迎分享,转载请注明来源:内存溢出
微信扫一扫
支付宝扫一扫
评论列表(0条)