便宜又大碗!AI将画廊轻松搬到自家墙壁;用隐写术在图像中存储文件;免费书·算法高维鲁棒统计;关节式手部模型数据集;前沿论文 | ShowMeAI资讯日报

发布于:2022-11-09 ⋅ 阅读:(981) ⋅ 点赞:(0)

👀日报合辑 | 📆电子月刊 | 🔔公众号下载资料 | 🍩@韩信子

📢 Mixtiles:将画廊搬到自家墙壁,“便宜又大碗”的艺术平替

https://www.mixtiles.com/

Mixtiles 是一家快速发展的照片创业公司,使用 DALL·E API 引导用户将最喜欢的照片设计为充满回忆的照片墙。

用户只需上传照片并选择池逊、装饰风格、框架,Mixtiles 就可以将这些照片设计为漂亮的照片墙,并把打印出来的照片邮寄到用户手中。得益于轻质泡沫和可重复使用的背胶背衬,用户可以轻松地将任何尺寸的照片放在墙上,并在不损坏墙壁的情况下对图片进行调整。

工具&框架

🚧 『AutoTrader』自动算法交易工具

https://github.com/rushout09/AutoTrader

AutoTrader 是一个自动算法交易工具,其动机是在不投入大量时间和精力的情况下获取股市收益。作者希望借此表明,简单的复利算法可以在长期内击败复杂的技术分析。(注意:工具库并不保证一定能从股市获利,谨慎使用)

🚧 『File Inyector』用隐写术在图像中存储任意文件的Python脚本

https://github.com/carlospuenteg/File-Injector

File Injector 是一个脚本,使用隐写术将任何文件(.zip, .png, .txt, .gba…)及其文件名存储在一个图像中。当然使用过程中,你也可以选择对存储的文件进行加密,并通过解密将原始文件提取出来。

给出的示例图像大小为 17.1MP 包含 9MB .zip 文件及其文件名。

🚧 『Avalon』为强化学习研究设计的3D视频游戏环境和基准

https://github.com/Avalon-Benchmark/avalon

Avalon 是一个三维视频游戏环境,是为强化学习研究而从头设计的基准环境。在 Avalon 中 agent(人类或计算机)探索一个三维环境,试图解决一组涉及导航地形、狩猎或收集食物和避开危险的任务。

Avalon 包括一个高效的游戏引擎、一个基线库和一个基准,其中的评分指标是根据数百小时的人类表现评估的,所有这些都是开源可公开使用的。实际数据表明,标准的RL基线在大多数任务上取得了进展,但与人类的表现相差甚远,这表明 Avalon 具有足够的挑战性,可以推动对可推广RL的追求

🚧 『Minimal text diffusion』扩散模型(diffusion model)文本生成的最小化实现

https://github.com/madaan/minimal-text-diffusion

本项目是文本扩散模型的最小实现示例,根据给定文本语料库学习扩散模型,进而可以从得到的模型生成文本样本。

博文&分享

👍 『Algorithmic High-Dimensional Robust Statistics』免费书·算法高维鲁棒统计

http://www.iliasdiakonikolas.org/ars-book.pdf

近年来科技领域的可用数据量呈现爆炸式增长。庞大的高维数据集通常过于复杂,无法精确拟合预先指定的模型,这对我们从复杂数据集中理解和提取有用信息的能力提出了重大挑战。

计算机科学领域开发了第一个用于基本高维稳健统计任务的高效算法,包括均值和协方差估计,并引发了一系列关于算法高维鲁棒估计的研究活动。本书则概述了算法高维稳健统计的最新发展。

  • Introduction to Robust Statistics(稳健统计简介):第 1 章包含对经典稳健统计的简洁概述
  • Robust Mean Estimation(稳健平均估计):第 2 章介绍了高维稳健统计的现代算法理论,包括 2016 年发展背后的关键思想
  • Algorithmic Refinements in Robust Estimation(鲁棒估计中的算法改进):第 3 章是对第 2 章基本算法的一些改进
  • Robust Covariance Estimation(鲁棒协方差估计):第 4 章给出了一种算法,用于稳健地估计类高斯分布的协方差
  • List-Decodable Learning(列表解码学习):第 5 章开发了列表解码学习的技术,对应于异常值占数据集大部分的制度
  • Robust Estimation via Higher Moments(通过更高矩进行稳健估计):第 6 章介绍了利用更高矩信息进行稳健估计的算法技术,包括使用 Sumof-Squares 方法的技术
  • Robust Supervised Learning(鲁棒监督学习):第 7 章为监督学习问题开发了稳健的算法
  • Information-Computation Tradeoffs(信息-计算权衡):第 8 章介绍了一些技术,用于为稳健的统计任务建立信息计算权衡

数据&资源

🔥 『DART』(NeurIPS 2022) 关节式手部模型数据集

https://github.com/DART2022/DART

DART 是 Articulated Hand Model with Diverse Accessories and Rich Textures 英文全称的首字母缩写,由 MANO 扩展而来,由 325 张精美的手工纹理贴图组成,外观各异,涵盖不同种类的瑕疵、彩妆和配饰。

作者提供了 Unity GUI,允许人们使用特定于用户的设置来渲染手(例如姿势、相机、背景、照明和 DART 纹理),并生成了大规模 (800K)、多样化和高保真手部图像,称为 DARTset。作为现有数据集的一个很好的补充,DARTset 可以促进手部姿势估计和表面重建任务。

研究&论文

公众号后台回复关键字 日报,免费获取整理好的论文合辑。

科研进展

  • 2022.10.13 『计算物理』 Forces are not Enough: Benchmark and Critical Evaluation for Machine Learning Force Fields with Molecular Simulations
  • 2022.10.13 『计算机视觉』 How to Train Vision Transformer on Small-scale Datasets?
  • 2022.09.22 『 图像超分辨率』 Swin2SR: SwinV2 Transformer for Compressed Image Super-Resolution and Restoration

⚡ 论文:Forces are not Enough: Benchmark and Critical Evaluation for Machine Learning Force Fields with Molecular Simulations

论文时间:13 Oct 2022

领域任务:Computational Physics, Machine Learning, Chemical Physics, 计算物理机器学习化学物理

论文地址:https://arxiv.org/abs/2210.07237

代码实现:https://github.com/kyonofx/mdsim

论文作者:Xiang Fu, Zhenghao Wu, Wujie Wang, Tian Xie, Sinan Keten, Rafael Gomez-Bombarelli, Tommi Jaakkola

论文简介:Our benchmark suite comes with a comprehensive open-source codebase for training and simulation with ML FFs to facilitate further work./我们的基准套件带有一个全面的开源代码库,用于用ML FFs进行训练和模拟,以促进进一步的工作。

论文摘要:分子动力学(MD)模拟技术被广泛用于各种自然科学应用。越来越多的机器学习(ML)力场(FF)模型开始通过直接从原子结构中预测力来取代人工模拟。尽管在这一领域取得了重大进展,但这种技术主要是以其力/能量预测误差为基准的,尽管实际使用情况是产生真实的MD轨迹。我们的目标是通过引入一个新的ML MD模拟基准套件来填补这一空白。我们策划了具有代表性的MD系统,包括水、有机分子、肽和材料,并设计了与各个系统的科学目标相对应的评价指标。我们对最先进的(SOTA)ML FF模型的集合进行了基准测试,并特别说明了通常基准的力的准确性是如何与相关的模拟指标不一致的。我们展示了选定的SOTA方法何时以及如何失败,同时提供了进一步改进的方向。具体而言,我们将稳定性确定为ML模型需要改进的一个关键指标。我们的基准套件带有一个全面的开源代码库,用于用ML FFs进行训练和模拟,以促进进一步的工作。

⚡ 论文:How to Train Vision Transformer on Small-scale Datasets?

论文时间:13 Oct 2022

领域任务:Computer Vision, Pattern Recognition, 计算机视觉模式识别

论文地址:https://arxiv.org/abs/2210.07240

代码实现:https://github.com/hananshafi/vits-for-small-scale-datasets

论文作者:Hanan Gani, Muzammal Naseer, Mohammad Yaqub

论文简介:However, in contrast to convolutional neural networks, Vision Transformer lacks inherent inductive biases./然而,与卷积神经网络相比,视觉变换器缺乏内在的感应偏差。

论文摘要:视觉变换器(ViT)是一种与卷积神经网络完全不同的架构,它具有多种优势,包括设计简单、鲁棒性和在许多视觉任务上的最先进性能。然而,与卷积神经网络相比,视觉变换器缺乏内在的感应性偏差。因此,此类模型的成功训练主要归功于在大规模数据集上的预训练,如拥有120万张图像的ImageNet或拥有3亿张图像的JFT。这阻碍了Vision Transformer对小规模数据集的直接适应。在这项工作中,我们表明自监督的归纳偏见可以直接从小规模数据集中学习,并作为一个有效的权重初始化方案进行微调。这使得训练这些模型不需要大规模的预训练、改变模型结构或损失函数。我们介绍了在五个小型数据集上成功训练单片和非单片视觉变形器的全面实验,包括CIFAR10/100、CINIC10、SVHN、Tiny-ImageNet和两个细粒度的数据集。飞机和汽车。我们的方法持续改善了视觉变形器的性能,同时保留了它们的特性,如对突出区域的关注和更高的鲁棒性。我们的代码和预训练的模型可在以下网站获得:https://github.com/hananshafi/vits-for-small-scale-datasets。

⚡ 论文:Swin2SR: SwinV2 Transformer for Compressed Image Super-Resolution and Restoration

论文时间:22 Sep 2022

领域任务:Image Super-Resolution, JPEG Artifact Correction, 图像超分辨率JPEG伪影校正

论文地址:https://arxiv.org/abs/2209.11345

代码实现:https://github.com/mv-lab/swin2sr

论文作者:Marcos V. Conde, Ui-Jin Choi, Maxime Burchi, Radu Timofte

论文简介:Using this method we can tackle the major issues in training transformer vision models, such as training instability, resolution gaps between pre-training and fine-tuning, and hunger on data./使用这种方法,我们可以解决训练变压器视觉模型的主要问题,如训练不稳定、预训练和微调之间的分辨率差距以及数据的饥饿感。

论文摘要:压缩在通过流媒体服务、虚拟现实或视频游戏等带宽有限的系统有效传输和存储图像和视频方面起着重要作用。然而,压缩不可避免地会导致伪影和原始信息的丢失,这可能会严重降低视觉质量。由于这些原因,压缩图像的质量提升已经成为一个热门的研究课题。虽然大多数最先进的图像修复方法是基于卷积神经网络的,但其他基于变换器的方法,如SwinIR,在这些任务上显示出令人印象深刻的性能。在本文中,我们探索了新颖的Swin Transformer V2,以改进SwinIR的图像超分辨率,特别是压缩输入场景。使用这种方法,我们可以解决训练变换器视觉模型的主要问题,如训练不稳定,预训练和微调之间的分辨率差距,以及数据上的饥饿。我们在三个有代表性的任务上进行了实验。JPEG压缩伪影的去除,图像超分辨率(经典和轻量级),以及压缩图像超分辨率。实验结果表明,我们的方法Swin2SR可以提高SwinIR的训练收敛性和性能,并在 "AIM 2022压缩图像和视频超级分辨率挑战赛 "中获得前五名。

我们是 ShowMeAI,致力于传播AI优质内容,分享行业解决方案,用知识加速每一次技术成长!

◉ 点击 日报合辑,在公众号内订阅话题 #ShowMeAI资讯日报,可接收每日最新推送。

◉ 点击 电子月刊,快速浏览月度合辑。

本文含有隐藏内容,请 开通VIP 后查看