草庐IT

background-clip

全部标签

background中的cover与contain的区别

background中的cover与contain的区别contain:将图片缩放至宽度或者高度能够完全适应容器,并且保持图片宽高比不变。如果容器宽高比与图片宽高比不同,则容器会留白,不会出现图片的裁剪。例如,对于一个宽度为200px、高度为200px的容器,背景图片使用background-size:contain,并且图片的宽度为300px,高度为150px,则图片会被等比例缩放至宽度为200px,高度为100px,留下50px的空白区域。cover:将图片缩放至能够铺满整个容器,并且保持图片宽高比不变。如果容器宽高比与图片宽高比不同,则图片多余的部分会被裁剪。例如,对于一个宽度为200p

《Hierarchical Text-Conditional Image Generation with CLIP Latents》阅读笔记

概括模型总述本篇论文主要介绍DALL·E2模型,它是OpenAI在2022年4月推出的一款模型,OpenAI在2021年1月推出了DALL·E模型,2021年年底推出了GLIDE模型。DALL·E2可以根据文本描述去生成原创性的、真实的图像,这些图像从来没有在训练集里出现过,模型真的学习到了文本图像特征,可以任意地组合其概念、属性、风格。DALL·E2除了根据文本生成图像,还能根据文本对已有的图像进行编辑和修改——可以任意添加或者移除图像里的物体,修改时甚至可以把阴影、光线和物体纹理都考虑在内。DALL·E2可以在没有文本输入的情况下,做一些图像生成的工作——比如给定一张图像,它可以根据已有的

《Hierarchical Text-Conditional Image Generation with CLIP Latents》阅读笔记

概括模型总述本篇论文主要介绍DALL·E2模型,它是OpenAI在2022年4月推出的一款模型,OpenAI在2021年1月推出了DALL·E模型,2021年年底推出了GLIDE模型。DALL·E2可以根据文本描述去生成原创性的、真实的图像,这些图像从来没有在训练集里出现过,模型真的学习到了文本图像特征,可以任意地组合其概念、属性、风格。DALL·E2除了根据文本生成图像,还能根据文本对已有的图像进行编辑和修改——可以任意添加或者移除图像里的物体,修改时甚至可以把阴影、光线和物体纹理都考虑在内。DALL·E2可以在没有文本输入的情况下,做一些图像生成的工作——比如给定一张图像,它可以根据已有的

有意思的方向裁切 overflow: clip

本文将介绍一个新特性,从Chrome90开始,overflow新增的一个新特性--overflow:clip,使用它,轻松的对溢出方向进行控制。overflow:clip为何首先,简单介绍下overflow:clip的用法。overflow:clip:与overflow:hidden的表现形式极为类似,也是对元素的padding-box进行裁剪。但是,它们有两点不同:也就是overflow:clip内部完全禁止任何形式的滚动。当然,这个不是今天的重点,暂且略过不谈。MDN原文:Thedifferencebetweenclipandhiddenisthattheclipkeywordalsofo

有意思的方向裁切 overflow: clip

本文将介绍一个新特性,从Chrome90开始,overflow新增的一个新特性--overflow:clip,使用它,轻松的对溢出方向进行控制。overflow:clip为何首先,简单介绍下overflow:clip的用法。overflow:clip:与overflow:hidden的表现形式极为类似,也是对元素的padding-box进行裁剪。但是,它们有两点不同:也就是overflow:clip内部完全禁止任何形式的滚动。当然,这个不是今天的重点,暂且略过不谈。MDN原文:Thedifferencebetweenclipandhiddenisthattheclipkeywordalsofo

从局部信息推测基恩士的Removing BackGround Information算法的实现。

   最近从一个朋友那里看到了一些基恩士的资料,本来是想看下那个比较有特色的浓淡补正滤波器的(因为名字叫ShadingCorrectionFilter,翻译过来的意思有点搞笑),不过看到起相关文档的附近有一个也比价有意思的功能,如下面的截图所示:  左侧有个叫RemovingBackGroundInformation的算法,看测试图片,他能够把背景的纹理去除,然后只留下一些细小的线条特征。在我的已经实现的算法里,也确实有一个菜单叫做RemoveBackGruond,尝试利用那个算法对这个图像进行处理,可以得到如下所示图像:         结果也相当不错。    在基恩士里这个功能的结果大概如

从局部信息推测基恩士的Removing BackGround Information算法的实现。

   最近从一个朋友那里看到了一些基恩士的资料,本来是想看下那个比较有特色的浓淡补正滤波器的(因为名字叫ShadingCorrectionFilter,翻译过来的意思有点搞笑),不过看到起相关文档的附近有一个也比价有意思的功能,如下面的截图所示:  左侧有个叫RemovingBackGroundInformation的算法,看测试图片,他能够把背景的纹理去除,然后只留下一些细小的线条特征。在我的已经实现的算法里,也确实有一个菜单叫做RemoveBackGruond,尝试利用那个算法对这个图像进行处理,可以得到如下所示图像:         结果也相当不错。    在基恩士里这个功能的结果大概如

巧用 background-clip 实现超强的文字动效

最近,有同学询问,如何使用CSS实现如下效果:看起来是个很有意思的动效。仔细思考一下,要想实现这类效果,其实用到的核心属性只有一个--background-clip:text。有意思的background-clip:textbackground-clip:text之前也提到多很多次。其核心就在于以区块内的文字作为裁剪区域向外裁剪,文字的背景即为区块的背景,文字之外的区域都将被裁剪掉。简单而言,就是运用了background-clip:text的元素,其背景内容只保留文字所在区域部分,配合透明文字color:transparent,就能够利用文字透出背景。利用background-clip:te

巧用 background-clip 实现超强的文字动效

最近,有同学询问,如何使用CSS实现如下效果:看起来是个很有意思的动效。仔细思考一下,要想实现这类效果,其实用到的核心属性只有一个--background-clip:text。有意思的background-clip:textbackground-clip:text之前也提到多很多次。其核心就在于以区块内的文字作为裁剪区域向外裁剪,文字的背景即为区块的背景,文字之外的区域都将被裁剪掉。简单而言,就是运用了background-clip:text的元素,其背景内容只保留文字所在区域部分,配合透明文字color:transparent,就能够利用文字透出背景。利用background-clip:te

CLIP:语言-图像表示之间的桥梁

最近GPT4的火爆覆盖了一个新闻:midjourneyv5发布,DALLE2,midjourney都可以从文本中生成图像,这种模型要求人工智能同时理解语言和图像数据。传统的基于人工智能的模型很难同时理解语言和图像。因为自然语言处理和计算机视觉一直被视为两个独立的领域,这使得机器在两者之间进行有效沟通具有挑战性。然而CLIP的多模态架构通过在相同的潜在空间中学习语言和视觉表现在二者之间建立了桥梁 。因此,CLIP允许我们利用其他架构,使用它的“语言-图像表示”进行下游任务。CLIP是一个基于超大数据量的pair-wise预训练模型但是在它的下游任务DalleE-2,Stable-Diffusio