蚂蚁呀嘿是什么歌(抖音蚂蚁呀嘿是什么歌)
抖音蚂蚁呀嘿是什么歌?最近抖音上出现了很多用“蚂蚁呀嘿”做BGM的特效视频,很多用户都想知道这首歌曲叫什么名字,可以在哪些平台听到。下面就是抖音蚂蚁呀嘿歌曲介绍和歌词赏析了,一起来看看吧!
抖音蚂蚁呀嘿是什么歌
“蚂蚁呀嘿”特效视频的背景音乐叫做《Dragostea Din Tei》,歌名翻译成中文是“椴树下的爱(绿*树下的爱)”,不过我们更加熟悉郭美美改编的中文版《不怕不怕》。
《Dragostea Din Tei》是东欧3人合唱团体O-ZONE于2003年在罗马尼亚发布的,次年在欧洲其他国家发行,是2004年夏季最热的歌曲之一。
歌词赏析:
Ma-ia-hii Ma-ia-huu Ma-ia-haa Ma-ia-ha-ha
Alo, Salut, sunt eu, un haiduc,
Si te rog, iubirea mea,
primeste fericirea。
Alo, alo, sunt eu Picasso,
Ti-am dat beep, si sunt voinic,
Dar sa stii nu-ti cer nimic。
Vrei sa pleci dar nu ma, nu ma iei,
Nu ma, nu ma iei, nu ma, nu ma, nu ma iei。
Chipul tau si dragostea din tei,
Mi-amintesc de ochii tai。
Te sun, sa-ti spun, ce simt acum,
Alo, iubirea mea, sunt eu, fericirea。
Alo, alo, sunt iarasi eu, Picasso,
歌词大意:
哈喽,你好,是我,一个歹徒
请你,我的爱,接受这份幸福
哈喽,哈喽;是我,毕加索
我call你一下,鼓足勇气
但你知道我别无所求
你想要离开,没有没有带上我
没有没有带上我没有没有没有带上我
你的面容和椴树下的爱情
回忆起你的眼睛
想要告诉你我现在的感受
哈喽,我的爱,是我,(你的)幸福
哈喽,哈喽;又是我,毕加索
火爆全网的蚂蚁呀嘿会泄露你多少隐私?远比想象多!但可以避免
作者|小葳
2月底,各种版本的《蚂蚁呀嘿》在抖音刷屏。有网友说,“一打开抖音,好像捅了蚂蚁窝。”
通过一款名为Avatarify 的APP,用户只需上传一张照片,即可让照片主人做出各种想要的表情。截止发稿,《蚂蚁呀嘿》在抖音有超过25万个视频,相关话题视频播放量达到30亿次。Avatarify曾在2 月 25 日问鼎国内App Store 应用免费榜榜首,随后连续数天稳居总榜第一名。
相比ZAO火爆之后的3天后下架,Avatarify也逃不出换脸软件的宿命,只有7天便在APP Store中国市场下架(目前国外还可以使用)。
Avatarify 由一个俄罗斯程序员开发,并放在GitHub上,最初是给Zoom、Skype等视频会议“解闷”用的,比如可以在开视频会议时把自己的脸换成马斯克的脸,并实时互动。迄今为止这个项目已在 GitHub 上获得了近 1.2 万的 star 量。
几个月后,Avatarify又推出了APP版(只有iOS版)。原理上,Avatarify借助 deepfake 等技术,在想要交换的脸部图像上对算法进行训练。通过在目标图像的相似类别上训练算法,该模型支持实时换脸操作。
类似换脸软件屡次被下架的背后还是隐私和信息安全问题。很多人都会担心自己的人脸信息被泄露或滥用,然而我们却不必对其背后的AI技术——深度合成一棒子打死。而且,目前深度合成在很多行业已经有了不少更有价值的应用。
深度合成首次被公众关注是2017年11月,彼时美国新闻网站Reddit一个名为“deepfakes”的用户上传了一段合成后的色情视频,将色情影片中演员的脸换成某明星的脸。此后,媒体开始用deepfake描述这种基于AI的视频合成内容。不过因此也让不少人误认为,深度合成就是deepfake、换脸,实在是太冤了。
首先,deepfake是深度合成的子集。只不过,换脸是最早进入公众视野,也是最为大众熟知的一种深度合成应用。
深度合成(Deep Synthesis)的内涵非常广泛,包括借助人工智能算法实现语音、图像、音频、视频、人脸等内容的合成与自动生成。其典型应用包括:人脸替换(换脸)、人脸再现(操纵目标对象的面部表情,比如让他们说从未说过的话)、人脸合成(AI生产媲美真实的人脸图像,事实上这张人脸并不存在)、语音合成、全身合成等等。
其次,deepfake频频导致的隐私安全和色情场景滥用问题,会让人们对深度合成技术存在偏见和误解,甚至认为AI伪造内容会冲击 社会 信任等等。不过,随着深度合成技术在更多领域的落地应用,公众对深度合成技术的认识也愈加成熟。
深度合成背后的AI技术主要包括两块:自编码器(autoencoders)和生成对抗网络(GAN, Generative Adversarial Networks )。GAN由两组相互对抗的人工神经网络组成,一个是生成器,一个是鉴别器,在无数次对抗中,生成器最终做到让鉴别器不再能够区分真实数据和合成数据,从而生成高度逼真的内容。
业界最先进的图像生成器当属英伟达的StyleGAN,已于2019年2月在Github上开源。
腾讯研究院、腾讯优图实验室发布的《AI生成内容发展报告2020——“深度合成”商业化元年》(以下简称报告)显示,近几年深度合成技术演进加快,并展现出几个技术趋势:
一、在单一的音频、图像合成之外,深度合成技术正向综合性的方向发展。
二、面部而成之后,全身合成将成为新热点。
三、2D合成之外,3D合成技术(尤其是虚拟数字人)将是下一阶段的重点。
而且,随着“深度合成”技术日趋成熟,其已经在多个领域实现落地应用,包括影视、 娱乐 、教育、医疗、电商、广告营销等领域。
在媒体行业,AI主播日益火热。2018年,搜狗联合新华社推出全球首个AI合成主播后,2020年,双方又推出全球首个3D AI合成主播。3D AI合成主播基于超写实3D数字人建模、多模态识别及生成、实时面部动作生成及驱动、迁移学习等多项人工智能前沿技术,使机器可以基于输入文本生成逼真度极高的3D数字人视频内容,呈现和真人一样的视频播报。
此外,包括百度、京东、网易在内的互联网巨头先后推出虚拟数字人。百度智能云推出的虚拟数字人,成为国内首个上岗的银行“虚拟员工”。
在自动驾驶领域,深度合成被用于开发自动驾驶仿真系统(AADS),创造虚拟道路环境为自动驾驶系统提供训练和测试。
在医疗领域,通过生成与真实医学影像无异的医学图像训练AI系统,可以解决医疗数据不足、病患隐私保护等问题。在NVIDIA与合作伙伴联合发表的论文中,展示了利用GAN算法合成带有肿瘤的脑部核磁共振图像的方法。在算法训练生成过程中,仅需投入10%的真实数据,AI诊断系统就可以检测出真实影像中的肿瘤。
在广告营销领域,AI合成的人脸和虚拟形象可以替代真人模特参与营销活动,而不会有人像版权问题。比如,Generated Photos 就是一个用AI自动生成人脸的网站,它的资料库中有超过 10 万张AI生成的人脸,对外提供免费下载使用,而且没有版权问题。这些免费人脸可以用在非常多的场景,比如广告传单、网站、PPT 简报、问卷、用户头像等等。
深度合成被滥用是人工智能治理的一个重要课题。
色情行业是新技术采用和普及的先锋,AI技术也不例外。目前,色情产业是深度合成技术滥用的重灾区。根据报告,2019年12月,全网共有14678个深度合成视频,其中96%属于色情性的深度合成视频,主要存在于色情网站。
如何防止人们用深度合成技术作恶?多元治理是比较公认的思路,包括法律方案、技术方案、行业自律和公众教育等各个方面。
法律方面,一些发达国家已经出台相关法案。但值得注意的是,并没有“一刀切”禁止使用深度合成技术,而是禁止利用深度合成技术从事色情视频合成、虚假新闻、干扰选举等非法行为。比如美国国会《DeepFakes责任法案》等相关法案,只禁止政治干扰、色情报复、冒充身份等目的的深度合成,并要求制作者对深度合成内容添加水印等标记。
技术方面,鉴别技术和溯源技术是两种主流的方法。但是在鉴别方面,没有通用的视频鉴别方案,需要针对每一种新兴的合成技术训练针对性的鉴别网络。
虽然目前深度合成内容的门槛已大幅降低,普通人也可以在智能手机等智能终端能上完成 娱乐 性的深度合成内容,但这类内容往往较容易识别。高质量、高仿真的深度合成内容仍需要专业工具和技能。所以,我们需要防范风险但无需恐慌。
AI就像人类的一个非常聪明的学生,TA只是飞快又忠实地学会人类教的东西。
正如报告中所说,“深度合成并非是关于‘伪造’和‘欺骗’的技术,而是极富创造力和突破性的技术。虽然它和其他技术一样,也催生了一系列必须面对的难题,但这并不会磨灭这一技术给 社会 带来的进步。”
看着巴菲特、小马哥、马云等一众大佬扭着脖子晃着头,还一边唱着洗脑神曲,网友直呼“太上头”!
最初,这些视频都是通过一个叫Avatarify的变脸APP来实现的,随着视频在全网快速传播,Avatarify的下载量一举超越微信、抖音等APP,成为App Store免费榜第一。
随后,许多公司迅速跟风开发了能够一键生成这款视频的类似软件。在淘宝、咸鱼和短视频平台上,也出现了大量「蚂蚁呀嘿」的视频教程与代做业务。
只需上传一张正脸照片,就能生成自己的「蚂蚁呀嘿」视频,让亿万网友们玩得不亦乐乎。
然而,对此有律师发出了特别提醒:上传个人照片尤其是清晰的证件照片,可能会导致个人或他人 信息泄露 ,甚至威胁个人财产安全。
那么,一张照片真的会泄露隐私?答案是会!而且能泄露很多“看不见”的信息!
任何智能手机拍出来的照片,都有一个隐含的内容叫 “Exif” ,它记录了照片的属性信息和拍摄数据,包括拍摄日期、时间、位置信息、相机型号等各种信息。
虽然分享出去的照片不会直接显示这些信息,但只要通过微信小程序「Exif查询」或「图虫EXIF查看器」就能查看到隐含的一切信息!
这样一来,一张照片就有可能泄露很多隐私!这些信息可能会被机器进行大规模 人脸识别和采集 ,从而掌握你的很多个人情况。
如果照片信息被不怀好意的人获取,那就更危险了!之前就有新闻报道过因晒小孩照片导致小孩遭绑架勒索的事件...
这样问题就来了,很多朋友平时都喜欢拍照,拍完还会把美照发到朋友圈、微博、微信群... 要说为了隐私就完全不发照片,那也不现实,怎么办呢?
其实,手机里有两个设置可以避免个人信息被他人获取。
手机照片包含的 位置信息 是最关键的一项信息,但是这个位置信息是有办法设置取消的。下面以荣耀手机为例讲讲操作方法:
(1)打开手机的「设置」,进入 「隐私」 ,点击「定位服务」。
(2)在应用列表中找到 「相机」 ,点击「权限」。
(3)再点击 「位置信息」 ,选择「禁止」。这样就将相机拍照时附加位置信息的功能关闭了。
现在很多华为手机都搭载了华为EMUI 11系统,这个系统有一个 「照片信息脱敏功能」 ,可以在不破坏照片画质的前提下把隐私信息处理掉。操作方法如下:
(1)在手机桌面上找到「图库」,选择对应的照片。
(2)点击 「分享」 ,此时手机屏幕左上角会显示一行蓝字“隐私保护未开启”。
(3)点击这行字之后,照片下方会弹出「分享隐私保护」页面,点击打开“去除照片拍摄数据”或“去除照片位置信息”。
总而言之,晒图有风险,个人信息安全不容小视!看完记得动动手指设置一下,让照片能更加安全地分享。小伙伴们可以互相转告、互相提醒哦~
你喜欢分享自己的照片吗?你有没有信息泄露的经历?来聊聊呀~
鹏仔微信 15129739599 鹏仔QQ344225443 鹏仔前端 pjxi.com 共享博客 sharedbk.com
图片声明:本站部分配图来自网络。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!