测试实况窗推送,提示没有权限{"illegalTokens":{"noRightToSendThisLiveNotificationEvent":["xxxx"]},"failure":1}pushToken:xxxxxx该pushToken已加入实况窗白名单,时间也过了T+1。
引用图片提示这个错误是什么原因?我在media下面又新建了一个文件夹,图片放里面的,提示文件夹必须为文件类型,就是说media下不能再新建文件夹细分图片分类?
目前出现一种场景,app进程不在时,当有新的聊天消息,云侧会有离线的push通知,展示通知栏消息,当打开app,由于app会拉取新的聊天消息,此时又会弹出一个通知栏消息。两个通知栏消息重复了。有没有什么方式,能获取到当前通知栏中wantAgent的parameters参数吗,我们想通过这里的参数做个抑制
发送im私信消息,用户收到后,通知栏展示,点击通知栏怎么跳转到对应用户的聊天界面
目前开发地图展示,在AGCl里创建了应用,开通了地图服务,拿到ClientID,请问目前除了地图API开发外,还需要准备其它流程吗?最好提供一份地图开发前需要准备的开发及接入流程
使用AVPlayer播放m3u8视频,从创建对象createAVPlayer到最后视频开始播放,初始化过程耗时至少3秒钟。用户体验非常差。同样的视频源,在PC站点初始化速度极快,基本都是1秒左右播放。请问AVPlayer有什么办法优化这个速度吗?下面是应用上一个AVPlayer初始化日志截图,从createAVPlayer调用到playing状态被回调,耗时3秒。下面是应用上一个AVPlayer初始化日志截图,从createAVPlayer调用到playing状态被回调,耗时3秒。解决方案...
按照https:developer.huawei.comconsumercndocharmonyosguidesV5usingavscreencaptureforbufferV5示例编写,会提示找不到ld.lld:error:undefinedsymbol:OHAVBufferGetCapacity和ld.lld:error:undefinedsymbol:OHAVBufferGetAddr文档里只说需要链libnativeavscreencapture.so,现在加上libnativebuffer.so也还是链接不到实现。
是用从该控件的aboutToAppear到onDidBuild的时间段好呢还是从aboutToAppear到onPickerControllerReady好呢?或者有什么更好的方式呢?
屏幕共享支持设置视频的采集帧率吗?还是只能听系统的,目前没有看到能设置的地方。看了下OHAVScreenCaptureInit和OHAVScreenCaptureConfig这2个api都没相关参数。
SoundPool接口load方法只提供下面4个重载方法,现在音频文件放在flutter的asset目录中,该如何调用这些音频文件?(非必要不想把音频文件放到HarmonyOS工程的目录下)load(uri:string,callback:AsyncCallback):void;load(uri:string):Promise;load(fd:number,offset:number,length:number,callback:AsyncCallback):void;load(fd:number,offset:number,length:number):Promise;
采用Capi调用运行OHAVScreenCaptureStartScreenCapture执行屏幕采集操作,通过OHAVScreenCaptureSetErrorCallback设置的回调被触发返回:OHAVErrCode6,提示未知异常。
native回调ts时报错stackbufferoverflow,代码如下:Index.ets:import{hilog}from'kit.PerformanceAnalysisKit';importtestNapifrom'libentry.so';EntryComponentstructIndex{Statemessage:string'TestNodeAPIcallNativeresult:';Statemessage2:string'TestNodeAPInativeCallArkTSresult:';privatemsg:stringundefinedundefined;privatecnt:number0build(){Row(){Column(){Text(this.message2).fontSize(16).fontWeight(FontWe...
在解决UI卡顿之前,使用的SoundPool来进行语音播报时不播报出现几率较少,当时是直接load之后就调用了play,但是解决UI卡顿之后,语音播报时不播报出现几率增多,排查发现是未判断on导致,后来加了on的判断,发现已经不播报了,帮忙看下。代码流程是:每帧进来之后,依次调用SoundPoolHelper.ets的playSound(status:FaceStatusNewEnum)方法,经过一系列判断之后,调用SoundPlayer.ets中的staticasyncplay(context:Context,rawPath:string)方法。
根据用户位置,显示该用户周边的建筑物名称,例如发动态,发朋友圈,选择附近的位置功能;
ArkUIX项目中支持NDK开发吗我的NDK中会依赖webrtc,ArkUIX项目中支持这种NDK开发吗
全栈若城 的精彩回答获得了0 赞同
zhudezhi 的精彩回答获得了0 赞同
hm673c38c21c68f 的精彩回答获得了0 赞同
hm673c38c70a02b 的精彩回答获得了0 赞同
hm688c71cb09923 的精彩回答获得了0 赞同