
简介
该用户还未填写简介
擅长的技术栈
可提供的服务
暂无可提供的服务
unity学习笔记如题,去年做好了语音唤醒的功能,但是因为不知道怎么探测是否有人在讲话,所以这个功能基本就是废了.最近发现了一个使用VAD进行语音探测的教程,尝试了一下,在研究了大概三四个月 (从看到这个教程开始算起),终于实现了在使用百度的语音唤醒之后调用vad进行语音探测同时进行语音录制,在通过vad探测没人讲话的时候结束语音录制,并将语音数据发送给相应的人工智能接口进行智能对话首先是需要一个
unity学习笔记text文本识别html富文本(待改进)需求逻辑实现xlua的安装配置到unity使用改进优化(待改进)text文本识别html富文本(待改进)需求项目里需要将之前外包的h5界面的内容移植到引擎中前面已经完成了视频的在线播放(uniwebview插件实现),也通过方法查询信息将数据动态的展示在界面中过程中遇到了一个问题,那就是接口返回的数据里存在html格式的富文本数据,而uni
Unity学习笔记通过接入百度语音sdk实现语音唤醒功能第一步第二步第三步第四步第五步第六步第八步通过接入百度语音sdk实现语音唤醒功能上次研究语音唤醒已经不知道是什么时候了,在这里感谢互联网,让基本对安卓完全没基础的小白做到了这个功能具体的代码实现在下面的这个帖子里可以说是很完整了(大佬可能是忘了还是懒得看,甚至appid啥的忘了打码)https://blog.csdn.net/weixin_4

该插件可以更便捷的实现调用,不过该插件存在多线程(UI更新不及时)的问题,因此不做该插件实现调用api的内容。设置你需要的应用信息,如果有知识库的话需要设置对应的知识库(一个应用目前只能对应一个知识库)使用百度千帆AppBuilder平台,通过api调用的方式实现AI大模型对话功能(文字)使用非流式的调用方式的话就跟平常的api调用没差,这里就不多做说明了。官方请求后返回的数据中会在最后有关于知识

ASE shadergragh使用心得1 获取渠道2 使用3 贴图4 注意使用心得1 获取渠道如何使用,首先是支持正版,直接在unityd的官方商店里下载这个shader即可(小弟是用于测试的,所以从其他渠道获得了这个的unitypage)导入之后会有一个这个插件的启动首页,我的建议是先看一下因为后面发现一些需要注意的地方2 使用导入完毕之后需要注意的是你的项目中的环境是怎么样的如果是标准的uni
接入百度和轻语的AI智能接口实现语音识别和语音播放语音识别思路代码语音合成思路总结语音识别思路先在百度和轻语申请接口,获得appkey和secretkey(这是为了获得鉴权,也就是token)这个简单的说相当于身份的认证,服务器要知道是申请了这个接口的人在调用这个接口,才能通过,才能进行逻辑处理并返回数据然后是在unity里用它自带的访问外网的类去访问即可,如www/UnityWebRequest
项目中的语音唤醒后的语音识别人声检测一直是一个很令我头痛的问题,之前因为对各种类型的工具包使用不熟练,以及时间问题,一直没有根治这个人声检测体验不好的问题,之前的解决方案是从帖子上别的大佬那里扒下来的有关vad的代码,拿来用的,其中有两个问题,一个就是人声检测十分敏感,基本有点杂音,背景音都会认为是人声;以上,我的解决思路是使用产品已经成熟的语音识别里的vad组件,帮我完成人声检测的功能,然后我根

资源热更新以及代码热更新资源热更新流程lua代码热更新流程实现注意,我使用的是2018版,如果是2019及以上的, lua的更新还需要多一步可以看这个视频里的最后的部分https://www.bilibili.com/video/BV1DK4y1Q7gR?p=9&spm_id_from=pageDriver资源热更新流程首先需要打包ab(assetsbundles,后面都简称),打包的内容
unity学习笔记由于动画师的动画制作遇到了一些小问题,只能先做其他功能的摸索了~本来想记录一下服务器搭建的,但是在消息传输的部分遇到了一些bug,可能是消息解析的时候出现了一些问题,教程里中间没有调试,所以不知道具体的问题是不是这个,只能先搁置那部分的内容,那个目前也不急,因为公司也没有资源买服务器(希望老板不看csdn)服务器的搭建和java项目里的ssm等框架差不太多,主要是多了一个消息协议
unity学习笔记切换场景时不销毁对象切换场景时不销毁对象直接上图这里还需要在切换场景的时候进行判断,如果场景里已经有当前对象了就销毁即将生成的就可以了逻辑和方法都很简单,就是有一个地方需要注意这个对象在场景里必须是第一级也即是不被销毁的这个对象在场景里必须没有父类,否则don’tdestroyonload这个方法是会失效的~...