查看docker版本(查看docker版本号命令)

查看docker版本(查看docker版本号命令)p 目录 p 1 什么是 docker 2 Docker 与普通虚拟机的对比 3 Docker 常用命令 4 Docker 镜像是什么 5 Docker 容器是什么 6 Docker 容器有几种状态 7 Dockerfile 中最常见的指令是什么 8 Dockerfile 中的命令 COPY 和 ADD 命令有什么区别 9 dockerfile 的 ONBUILD 指令

大家好,我是讯享网,很高兴认识大家。



 <p >目录</p> 

讯享网

1、什么是docker?

2、Docker与普通虚拟机的对比:

3、Docker常用命令:

4、Docker镜像是什么?

5、Docker容器是什么?

6、Docker容器有几种状态?

7、Dockerfile中最常见的指令是什么?

8、Dockerfile中的命令COPY和ADD命令有什么区别?

9、dockerfile的ONBUILD指令?

10、什么是打包、分发、部署?

11、Docker应用场景?

12、容器带来的好处?

13、什么是Docker?

14、Docker的作用或使用其的目的?

15、虚拟机和容器对比图表:

16、容器与主机之间的数据拷贝命令:

17、Docker Swarm是什么?

18、什么是容器?

19、容器虚拟化和传统虚拟化的区别是什么?

20、namespace在容器中的功能是什么?

21、Cgroup的功能是什么?

22、docker能不能在32位系统里运行?

23、docker的核心组件有哪些?

24、我们所安装的docker是哪个版本?

25、什么是docker容器?

26、docker容器的状态?

27、docker容器的内部机制?

28、如何启动容器时指定挂载目录?

29、dockerfile中常见指令:

30、dockerfile指令中COPY和ADD的区别?

31、docker如何在非Linux系统中运行容器?

32、无状态或有状态的应用程序,那个更适合Docker容器?

33、如何使用docker构建与环境无关的系统?

34、docker swarm是什么?

35、CI(持续集成)服务器的功能是什么?

36、docker目录挂载的几种方式?

37、多容器间如何进行通信?

38、docker-compose相关命令?

39、docker是怎么工作的?

40、docker容器之间是如何隔离的?

41、完整的docker有哪几部分?

42、进入容器有什么方法?

43、什么是联合文件系统(unionFS)?

44、什么是虚拟化?

45、什么是docker hub?

46、存储驱动是什么?

47、dockerfile命令?

48.ENTRYPOINT做什么用呢?

49.docker run 启动参数?

50.docker run 死掉了 怎么排查?

51.awk取偶数行与奇数行

52.awk取第三行第四列

53.k8s中的资源对象

54、docker容器化封装应用程序的坏处?

55、docker在不使用k8s的情况下如何集群部署?

56、docker stack 和docker compose的区别?

57、docker容器化封装应用程序的坏处?

58、docker在不使用k8s的情况下如何集群部署?

59、docker stack 和docker compose的区别?

60、docker compose可以使用json来替代yaml么?

61、docker swarm是什么?

62、如何使用一个基础镜像并对其进行修改?

63、管理程序的功能是什么?

64、docker容器的启动、终止和停止命令?

65、docker生命周期简述?

66、docker对象标签是什么?

67、docker引擎是什么?

68、如何访问正在运行的容器?

69、使用docker-compose时如何保证容器1先于容器2运行?

70、查看镜像支持的环境变量命令?

71、本地的镜像文件都存放在那里?

72、如果需要构建docker镜像,需要遵循那些原则?

73、在容器退出后,我们使用docker ps命令无法查看,此时数据是否会丢失?

74、我们是否可以在某一容器中同时运行多个应用进程?

75、如何控制容器占用系统资源(如CPU、内存)的份额?

76、仓库(repository)、注册服务器(registry)、注册索引(index)之间有何关系?

77、从非官方仓库(如dl.dockerpool.com)下载镜像时,有时会提示【Error: Invaild registry endpoint...】?

78、docker的配置文件放在何处?

79、如何更改docker的默认存储设置?

80、docker与LXC(Linux container)有何不同?

81、docker和vagrant有何不同?

82、开发环境中docker和vagrant应该如何抉择?

1、什么是docker?

Docker是一个容器化平台,以容器的形式将我们的应用程序及其所有依赖项打包在一起,以确保我们的应用程序在任何环境中无缝运行,可以理解为一个应用打包、分发、部署的工具。

我们也可以把它理解为一个轻量的虚拟机,Docker只虚拟我们的软件需要的运行环境,多余的一点都不要,而普通虚拟机则是一个完整而庞大的系统,包含各种不管我们要不要的软件。

我们需要明确的是,Docker不是虚拟化方法,它依赖于实际实现基于容器的虚拟化或操作系统级虚拟化的其他工具,为此,Docker最初使用LXC驱动程序,然后移动到libcontainer,现在重命名为runc。

2、Docker与普通虚拟机的对比:

特性 普通虚拟机 Docker

跨平台 通常只能在桌面级系统运行,例如 Windows/Mac,无法在不带图形界面的服务器上运行 支持的系统非常多,各类windows和Linux都支持

性能 性能损耗大,内存占用高,因为是把整个完整系统都虚拟出来了 性能好,只虚拟软件所需运行环境,最大化减少没用的配置

自动化 需要手动安装所有东西 一个命令就可以自动部署好所需环境

稳定性 稳定性不高,不同系统差异大 稳定性好,不同系统都一样部署方式

3、Docker常用命令:

docker pull:拉取或者更新指定镜像

docker push:将镜像推送至远程仓库

docker rm:删除容器

docker rmi:删除镜像

docker images:列出所有镜像

docker ps:列出所有容器

4、Docker镜像是什么?

Docker镜像是Docker容器的源代码,Docker镜像用于创建容器,可以使用build命令创建镜像。

镜像可以理解为是我们下载的gz或zip压缩包,只不过这个镜像文件中包括微型计算机(文件系统,网络)及其它内容,比如我们下载tomcat的镜像文件,其中就包括:微型计算机 + Tomcat环境+Jdk环境 = Tomcat镜像。

Docker镜像也可理解为是一个root文件系统,比如官方镜像ubuntu:16.04就包含完整的一套Ubuntu16.04最小系统的root文件系统。

5、Docker容器是什么?

Docker容器是镜像创建出来的一个运行的系统,也可以理解为是一个进程,其中包括应用程序及其所有依赖项,作为操作系统的独立进程运行。

镜像(Image)和容器(Container)的关系,可以更通俗的理解为是面向对象程序设计中的类和实例一样,镜像是静态的定义,容器是镜像运行时的实体。

6、Docker容器有几种状态?

运行、已暂停、重新启动、已退出

7、Dockerfile中最常见的指令是什么?

FROM:指定基础镜像

LABEL:功能是为镜像指定标签

RUN:运行指定的命令

CMD:容器启动时要运行的命令

8、Dockerfile中的命令COPY和ADD命令有什么区别?

COPY与ADD的区别COPY的SRC只能是本地文件,其他用法一致

9、dockerfile的ONBUILD指令?

当镜像用作另一个镜像构建的基础时,ONBUILD指令向镜像添加将在稍后执行的触发指令,如果要构建将用作构建其他镜像的基础的镜像(例如,可以使用特定于用户的配置自定义的应用程序构建环境或守护程序)。

10、什么是打包、分发、部署?

打包:将软件运行所需的依赖&第三方库&软件打包到一起,变成一个安装包。

分发:将打包好的安装包上传到一个镜像仓库,其他人可以便捷的获取和安装。

部署:拿着“安装包”就可以一个命令运行起来个人的应用,自动模拟出一摸一样的运行环境,不管是在Windows/Mac/Linux环境。

11、Docker应用场景?

应用程序的打包和发布

应用程序隔离

持续集成

部署微服务

快速搭建测试环境

提供PaaS平台级产品

12、容器带来的好处?

秒级的交付和部署

保证环境一致性

高效的资源利用

弹性的伸缩

动态调度迁移成本低

13、什么是Docker?

使用最广泛的开源容器.

一种操作系统的虚拟化技术 linux 内核

依赖于Linux内核特性:NameSpace和Cgroups

一个简单的应用程序打包工具

14、Docker的作用或使用其的目的?

提供简单的应用程序打包工具

开发人员和运维人员职责逻辑分离

多环境保持一致。消除了环境的差异。

15、虚拟机和容器对比图表:

16、容器与主机之间的数据拷贝命令:

docker cp 命令用于容器与主机之间的数据拷贝。

上面这个96f7f14e99ab是容器ID。

17、Docker Swarm是什么?

是Docker的本机群集,它将Docker主机池转变为单个虚拟Docker主机,Docker Swarm提供标准的Docker API,任何已经与Docker守护进程通信的工具都可以使用Swarm透明地扩展到多个主机。

18、什么是容器?

容器是一种轻量级、可移植、自包含的软件打包技术,使得应用程序几乎可以在任何地方以相同的方式运行。

19、容器虚拟化和传统虚拟化的区别是什么?

容器虚拟化:秒级启动,系统支持量为单机上千个容器,磁盘使用的单位一般为MB,性能接近原生。

传统虚拟化:分钟级启动,支持Linux、Windows、Mac操作系统,系统支持量一般为几十个,磁盘实验单位一般为GB,性能较弱。

20、namespace在容器中的功能是什么?

表示命名空间隔离,主要就是将用户空间通过namespace技术隔离开,使得容器内的进程互不影响,共同使用一个内核。

21、Cgroup的功能是什么?

资源限制、优先级分配、资源统计、任务控制

22、docker能不能在32位系统里运行?

不能。

23、docker的核心组件有哪些?

镜像:image,相当于是一个root文件系统。

容器:container,image和container的关系就像是面向对象程序设计里的类和实例,image是静态的定义,container是镜像运行时的实体。

仓库:repository,代码控制中心,用来保存image。

24、我们所安装的docker是哪个版本?

18.03.1-CE。

25、什么是docker容器?

docker容器包括应用程序及其所有依赖项,其作为操作系统的独立进程运行。

26、docker容器的状态?

运行、已暂停、重新启动、已退出。

27、docker容器的内部机制?

每个容器都在自己的命名空间中运行,但使用与所有其它容器完全相同的内核,发生隔离是因为内核知道分配给进程的命名空间,并且在API调用期间确保进程只能访问自己命名空间内的资源。

操作系统的一个功能是允许将全局资源(如网络和磁盘)共享到进程,如果将这些全局资源包装在命名空间中,则可以使其仅对在同一命名空间中运行的进程可见。

28、如何启动容器时指定挂载目录?

启动Nginx容器(随机端口映射)并挂载本地文件目录到容器html的命令:

docker run -d -P --name nginx2 -v /home/nginx:/usr/share/nginx/html nginx

29、dockerfile中常见指令:

30、dockerfile指令中COPY和ADD的区别?

COPY表示直接拷贝,ADD表示拷贝+解压功能。

详解如下:

二者都是只复制目录中的文件,而不包含目录本身。

COPY能干的事ADD都能干,甚至还有附加功能。

ADD可以支持拷贝的时候顺带解压缩文件,以及添加远程文件(不在本宿主机上的文件),COPY的<src>只能是本地文件

只是文件拷贝的话可以用COPY,有额外操作可以用ADD代替。

docker官方建议当要从远程复制文件时,尽量用curl/wget命令来代替ADD,因为用ADD的时候会创建更多的镜像层,镜像层的size也大。

31、docker如何在非Linux系统中运行容器?

通过添加到Linux内核版本2.6.24的名称空间功能,可实现容器的概念,容器将其ID添加到每个进程,并向每个系统调用添加心得访问控制检查,由clone()系统调用访问,该调用允许创建先前全局命名空间的单独实例。

如果由于Linux内核中可用的功能而可以使用容器,那么显而易见的问题是非Linux系统如何运行容器。

Docker for Mac和Windows都使用Linux VM来运行容器。

Docker Toolbox用于在Virtual Box VM中运行容器。

但docker早就在Windows中使用Hyper-V,在MAC中用Hypervisor.framework。

32、无状态或有状态的应用程序,那个更适合Docker容器?

最好为Docker Container创建无状态应用程序,我们可以从应用程序中创建一个容器,并从应用程序中取出可配置的状态参数,现在我们可以在生产和具有不同参数的QA环境中运行相同的容器,这有助于在不同场景中重用相同的镜像,使用Docker Containers比使用有状态应用程序更容易扩展无状态应用程序。

33、如何使用docker构建与环境无关的系统?

volumes+环境变量注入+只读文件系统

34、docker swarm是什么?

是docker本级集群,它将docker主机池转变为单个虚拟docker主机,其提供标准的docker API,任何与docker守护进程通信的工具都可以使用swarm透明的扩展到多个主机。

35、CI(持续集成)服务器的功能是什么?

在每次提交之后不断地集成所有提交到存储库的代码,并编译检查错误。

36、docker目录挂载的几种方式?

bind mount:直接把宿主机目录映射到容器内,适合挂代码目录和配置文件,可挂到多个容器上。

volume:由容器创建和管理,创建在宿主机,所以删除容器不会丢失,官方推荐,更高效,Linux 文件系统,适合存储数据库数据,可挂到多个容器上。

tmpfs mount:适合存储临时文件,存储在宿主机内存中,不可多容器共享。

37、多容器间如何进行通信?

要想多容器之间互通,从 Web 容器访问 Redis 容器,我们只需要把他们放到同个网络中就可以了。

先通过docker network create 网络名称,来创建虚拟网络,之后在启动各个服务的时候将其指定使用该网络就可以了。

也可以通过编写docker-compose的yaml配置文件,再使用docker-compose相关命令来运行相关服务。

38、docker-compose相关命令?

在后台运行只需要加一个 -d 参数docker-compose up -d

查看运行状态:docker-compose ps

停止运行:docker-compose stop

重启:docker-compose restart

重启单个服务:docker-compose restart service-name

进入容器命令行:docker-compose exec service-name sh

查看容器运行log:docker-compose logs [service-name]

39、docker是怎么工作的?

docker使用了常见的C/S架构,也就是client-sever模式,docker client复制处理用户输入的各种命令,如docker run、docker build等,但实际上真正工作的是docker server,也就是docker daemon,不过,我们可以发现,比较有意思的是docker client和docker daemon可以运行在同一台机器上。

docker守护进程运行在主机上,之后通过socket连接从客户端访问,守护进程从客户端接受命令并管理运行在主机上的容器,守护进程和客户端依然可以运行在同一台机器上。

40、docker容器之间是如何隔离的?

Linux中的PID、IPC、网络资源是全局的,而namespace机制是一种资源隔离方案,在该机制下,这些资源就不再是全局的了,而是属于某个特定的namespace,各个namespace下的资源,互不干扰。

虽然有了namespace技术可以实现资源隔离,但进程还是可以不受控制的访问系统资源,比如CPU、内存、磁盘、网络等,于是我们就为了控制一下容器中进程对资源的访问,docker采用control groups技术,也就是cgroup,有了cgroup就可以控制容器中进程对资源的消耗了,比如控制某个容器使用内存的上线、可以在那个CPU上运行等等。

有了上面两项技术,容器看起来就像是独立的操作系统了。

41、完整的docker有哪几部分?

docker client客户端、docker daemon守护进程、docker image镜像、docker contain容器,一共四部分。

42、进入容器有什么方法?

docker attach方法。

使用exec命令:docker exec -i -t 784fd3b294d7 /bin/bash

43、什么是联合文件系统(unionFS)?

docker image(docker镜像)实际上是由一层一层的文件系统组成,这种层级的文件系统就是unionFS,它是一种分层、轻量级并且高性能的文件系统,联合加载会将各层文件系统叠加起来,这样最终的文件系统就会包含所有底层的文件和目录。

44、什么是虚拟化?

虚拟化允许我们在相同的硬件上运行多个完全不同的操作系统,每个客户操作系统都经历了引导、加载内核等所有过程,我们可以拥有非常严格的安全性。

虚拟化方法分为三类:仿真、半虚拟化、基于容器的虚拟化。

45、什么是docker hub?

是一个基于云的注册表服务,允许我们链接到代码存储库,构建镜像并测试它们,存储手动推送的镜像以及指向docker云的链接,以便我们可以将镜像部署到主机。

docker hub为整个开发流程中的容器镜像发现,分发和变更管理,用户和团队协作以及工作流自动化提供了集中资源。

46、存储驱动是什么?

docker使用了一系列不同的存储驱动来管理镜像内的文件系统并运行容器,这些存储驱动与docker卷(volume)有些不通。

存储引擎管理着能够在多个容器之间共享的存储。

当镜像被docker run命令创建时,就会在镜像最上层添加一个可写的层,也就是容器层,所有对于运行时容器的修改其实都是对这个容器读写层的修改。

容器和镜像的区别就在于所有镜像都是只读的,而每一个容器其实等于镜像加上一个可读写的层,也就是同一个镜像可以对应多个容器。

unionFS其实是一种为Linux操作系统设计的用于将多个文件系统联合到同一个挂载点的文件系统服务。

而AUFS也就是advanced unionFS其实就是unionFS的升级版本,它能够提供更加优秀的性能和效率。

AUFS只是docker使用的存储驱动的一种,除此之外docker还只吃了不同的存储驱动,如devicemapper、overlay2、ZFS和VFS等。

在最新的docker中,overlay2取代了AUFS成为推荐的存储驱动,但在没有该驱动的机器上,仍然会使用AUFS作为docker的默认驱动。

47、dockerfile命令?

FROM 镜像:指定新镜像所基于的镜像,第一条指令必须为FROM指令,每创建一个镜像就需要一条FROM指令。

MAINTAINER 名字:说明新镜像的维护人信息。

RUN 命令:在所基于的镜像上执行命令,并提交到新的镜像中。

CMD [“要运行的程序“,”参数1,“参数2“]:指令启动容器时要运行的命令或者脚本,Dockerfile只能有一条CMD命令,如果指定多条则只能最后一条被执行。

EXPOSE 端口号:指定新镜像加载到Docker时要开启的端口。

ENV 环境变量 变量值:设置一个环境变量的值,会被后面的RUN使用。

ADD 源文件/目录 目标文件/目录:将源文件复制到目标文件,源文件要与Dockerfile位于相同目录中,或者是一个URL。

COPY 源文件/目录 目标文件/目录:将本地主机上的文件/目录复制到目标地点,源文件/目录要与Dockerfile在相同的目录中。

VOLUME [“目录“]:在容器中创建一个挂载点。

USER 用户名/UID:指定运行容器时的用户。

WORKDIR 路径:为后续的RUN、CMD、ENTRYPOINT指定工作目录。

ONBUILD 命令:指定所生成的镜像作为一个基础镜像时所要运行的命令。

HEALTHCHECK:健康检查。

48.ENTRYPOINT做什么用呢?

ENTRYPOINT指令本身也可以包含参数,变动的参数不会被覆盖。

49.docker run 启动参数?

-d  指定容器为后台运行

-i  打开stdin,用于控制台交互

-t   可以支持只终端登录

-u   指定用户

-大P   随机生成端口

-小p   指定端口

50.docker run 死掉了 怎么排查?

方法一:通过docker的日志进行排查

docker  logs  容器名称  查看docker容器日志

docker  ps  -a   查看容器的运行状态

docker rm   容器名称     删除容器

51.awk取偶数行与奇数行

awk  '{if (NR%2==1){print  NR}}'  file3      //偶数行

awk  '{if(NR%2==0){print  NR}}'  file3    //奇数行

52.awk取第三行第四列

awk 'NR==3{print}' | awk '{print $4}'

53.k8s中的资源对象

pod

label:标签

replication  controller:生命pod副本的数量

replicaset:有状态

deployment:无状态

service:服务

volume:存储卷

namespace:命令空间

54、docker容器化封装应用程序的坏处?

docker是单机使用的,无法有效集群。

随着容器数量的上升,管理成本也越来越高。

没有有效的容灾或是自愈机制。

没有预设编译模板,无法实现快速、大规模的容器调度。

没有统一的配置管理中心。

没有容器生命周期的管理工具。

没有图形化运维工具。

55、docker在不使用k8s的情况下如何集群部署?

docker compose是单机部署的,集群部署可使用docker stack。

单机部署案例:docker-compose up -d xxx.yaml

集群部署案例:docker stack depoly xxx.yaml

docker在进行多服务部署和管理时通常用docker stack解决大规模部署管理问题。

docker在1.12版本集成docker swarm,内置新的容器编排工具docker stack,通过提供期望状态、滚动升级、简单易用、扩缩容、健康检查等特性简化应用的管理。

docker stack可以完成docker本身做不到的事情,就是它可以完成容器编排。

56、docker stack 和docker compose的区别?

stack是swarm mode的一部分,即使是单机使用,也需要一个swarm节点,它强化了service的概念,服务可理解为发布到生产环境时某组容器的预期状态 ,以及强化了( 复制集、 容器重启策略、回滚策略、服务更新策略 )等生产特性。

stack不支持build指令,而docker compose不支持deploy指令。

docker stack几乎能做docker-compose所有的事情,不过后续统一还是使用kubernetes更香。

总而言之,docker stack适用于生产环境的编排工具,而docker-compose更适合被定义为单机容器编排的工具。

57、docker容器化封装应用程序的坏处?

docker是单机使用的,无法有效集群。

随着容器数量的上升,管理成本也越来越高。

没有有效的容灾或是自愈机制。


讯享网

没有预设编译模板,无法实现快速、大规模的容器调度。

没有统一的配置管理中心。

没有容器生命周期的管理工具。

没有图形化运维工具。

58、docker在不使用k8s的情况下如何集群部署?

docker compose是单机部署的,集群部署可使用docker stack。

单机部署案例:docker-compose up -d xxx.yaml

集群部署案例:docker stack depoly xxx.yaml

docker在进行多服务部署和管理时通常用docker stack解决大规模部署管理问题。

docker在1.12版本集成docker swarm,内置新的容器编排工具docker stack,通过提供期望状态、滚动升级、简单易用、扩缩容、健康检查等特性简化应用的管理。

docker stack可以完成docker本身做不到的事情,就是它可以完成容器编排。

59、docker stack 和docker compose的区别?

stack是swarm mode的一部分,即使是单机使用,也需要一个swarm节点,它强化了service的概念,服务可理解为发布到生产环境时某组容器的预期状态 ,以及强化了( 复制集、 容器重启策略、回滚策略、服务更新策略 )等生产特性。

stack不支持build指令,而docker compose不支持deploy指令。

docker stack几乎能做docker-compose所有的事情,不过后续统一还是使用kubernetes更香。

总而言之,docker stack适用于生产环境的编排工具,而docker-compose更适合被定义为单机容器编排的工具。

60、docker compose可以使用json来替代yaml么?

可以的,使用docker-compose -f docker-compose.json up命令。

61、docker swarm是什么?

容器编排的工具,允许我们跨越不同主机来管理多个容器。

我们可以使用swarm来将多个docker主机变成单个主机,以便于管理。

62、如何使用一个基础镜像并对其进行修改?

可使用docker pull <image_name>命令将镜像从docker hub拉倒本地系统。

63、管理程序的功能是什么?

帮助运维人员创建和运行虚拟机的软件,使我们能够使用单个主机来支持多个来宾虚拟机,管理程序通过划分主机的系统资源并将资源分配各已安装的来宾环境来实现这一点,所以我们可以在单个主机操作系统上安装多个操作系统。

管理程序有native和托管两种。

native:本机管理程序或裸机管理程序,直接在底层主机系统上运行,使我们可以直接访问主机系统的硬件,并且还不需要基本服务器操作系统。

托管:使用底层主机操作系统。

64、docker容器的启动、终止和停止命令?

启动:docker start <container_id>

停止:docker stop <container_id>

终止:docker kill <container_id>

65、docker生命周期简述?

创建容器->运行容器->暂停容器(可选)->取消暂停容器(可选)->启动容器->停止容器->重启容器->杀死容器->销毁容器。

66、docker对象标签是什么?

是存储为字符串的键值对,使我们能够将元数据添加到docker对象,例如容器、网络、本地守护进程、镜像、swarm节点和服务。

67、docker引擎是什么?

一种开源的容器化技术,可使用它来构建和容器化我们的应用程序,由docker引擎 rest api、docker命令行界面(CLI)、docker守护进程三个组件支持。

68、如何访问正在运行的容器?

使用docker exec -it <container_id> bash命令。

69、使用docker-compose时如何保证容器1先于容器2运行?

docker-compose在继续下一个容器之前不会等待容器准备就绪,为了控制执行顺序,可使用【取决于(depends_on)】条件。

来看个在docker-compose.yaml文件中使用的示例:

讯享网

70、查看镜像支持的环境变量命令?

docker run IMAGE env

71、本地的镜像文件都存放在那里?

docker相关的本地资源存放在/var/lib/docker目录下,其中container目录存放的是容器信息,graph目录存放的是镜像信息,aufs目录存放的是具体的镜像底层文件。

72、如果需要构建docker镜像,需要遵循那些原则?

整体上应当尽量保持镜像功能的明确和内容的精简。

应当尽量选取满足需求但有比较小的基础系统镜像,清理编译生成的文件、安装包的缓存等临时文件。

安装各个软件的时候应指定准确的版本号,避免引入不需要的依赖。

从安全的角度来看,应当尽量使用系统的库和依赖。

在我们使用dockerfile创建镜像的时候,需要添加.dockerignore文件或者使用干净的工作目录。

73、在容器退出后,我们使用docker ps命令无法查看,此时数据是否会丢失?

容器退出后会处于终止(exited)状态,此时可使用docker ps -a查看,此时数据不会丢失,还可通过docker start启动,只有删除容器之后才会清除数据。

74、我们是否可以在某一容器中同时运行多个应用进程?

这种操作方式我们一般是不推荐使用的,如果真的有了此类需求,建议还是使用额外的进程管理机制,比如我们可以使用supervisord来管理所有运行的进程。

75、如何控制容器占用系统资源(如CPU、内存)的份额?

使用docker create创建容器或使用docker run创建并运行容器时,可使用-c| -sup-share[=0]参数来调整同期使用CPU的权重,使用-m|-memory参数来调整容器使用内存的大小。

76、仓库(repository)、注册服务器(registry)、注册索引(index)之间有何关系?

仓库(repository)是存放一组关联镜像的集合,如同一应用的不同版本的镜像,注册服务器(registry)则是存放实际的镜像的地方,注册索引(index)则是负责维护用户账号、权限、搜索、标签等相关功能的管理,注册服务器(registry)根据注册索引(index)来实现认证管理。

77、从非官方仓库(如dl.dockerpool.com)下载镜像时,有时会提示【Error: Invaild registry endpoint...】?

出现上述问题原因是因为docker自1.3.0版本之后,加强了对镜像安全性的校验,需手动添加对非官方镜像的信任(DOCKER_ORTS="-insecure-registry dl.dockerpool.com:5000"),之后重启docker服务。

78、docker的配置文件放在何处?

Ubuntu系统下docker配置文件放在/etc/default/docker,centOS系统下docker配置文件放在/etc/sysconfig/docker。

79、如何更改docker的默认存储设置?

docker默认存放位置是/var/lib/docker,如果我们希望将docker的本地文件存储到其它分区的话,可以使用Linux软连接的方式来做。

80、docker与LXC(Linux container)有何不同?

LXC利用Linux上的相关技术实现容器,docker则在部分地方做了优化。

首先在移植性上,docker通过抽象容器配置,使得容器可以从一个平台轻易地移植到另一个平台。

docker镜像系统基于AUFS的镜像系统为容器的分发带来很多便利,镜像层只需要存储一份,实现了高效率的存储。

docker的版本管理类似于GIT的版本管理理念,用户可以更方便的创建和管理镜像。

docker周边有各种各样的工具(如配置管理、云平台)对docker提供支持,以及基于docker的pass、CI等系统,使得docker的应用更加方便和多样。

81、docker和vagrant有何不同?

首先我们应该明确的是两者的定位完全不同。

vagrant类似于boot2docker(一款运行docker的最小内核),是一套虚拟机的管理环境,vagrant可以在多种系统上和虚拟机中运行,可以在Windows、Mac等非Linux平台上为docker提供支持,自身具有很好的包装性和移植性。

原生docker自身只能运行在Linux平台上,但启动和运行的性能比虚拟机要快,往往更适合快速开发和部署应用的场景。

82、开发环境中docker和vagrant应该如何抉择?

docker不是虚拟机,而是进程隔离,对于资源消耗很少,单一开发环境下vagrant是虚拟机上的封装,虚拟机本身会很消耗资源。

总结

入门教程提供了Stable Diffusion的基本使用方法。对于更高级的功能,如插件使用、模型部署等,可以在掌握基础操作后进一步学习。

Stable Diffusion是一款基于人工智能技术开发的绘画软件,它利用了生成对抗网络(GAN)的深度学习模型来学习并模仿艺术家的创作风格,从而生成类似的艺术作品。以下是关于Stable Diffusion的教程详解,包括软件介绍、配置要求、安装步骤、基础操作等方面的信息。

软件介绍

Stable Diffusion具有直观的用户界面,用户可以通过调整绘画参数并实时预览结果来创建艺术作品。软件支持选择不同的画布、画笔和颜色,以及调整图像的风格、纹理和颜色等参数。

配置要求

显卡:需要NVIDIA显卡,显存至少4GB,推荐12GB或以上。

硬盘空间:建议60GB以上,因为模型资源通常很大。

操作系统:需要Windows 10或Windows 11。

安装步骤

使用一键安装/启动包,避免手动安装的复杂性。 下载并安装“启动器运行依赖”,然后将文件复制到文件夹中。 通过双击启动器来运行Stable Diffusion。

基础操作

模型切换࿱

总结

Stable Diffusion入门教程总结
简介
Stable Diffusion是一款基于前沿人工智能技术的绘画软件,其核心依托于生成对抗网络(GAN)的深度学习模型,能够学习并模仿艺术家的独特创作风格,快速生成高质量的艺术作品。对于初学者而言,本教程提供了从软件介绍、配置要求、安装步骤到基础操作的全面指导,让用户能够迅速上手并享受创作的乐趣。
软件特色
- 直观界面:Stable Diffusion的界面设计友好,用户能够直观地调整绘画参数,并即时预览效果,极大提升了创作效率和体验。
- 丰富工具:软件支持多样化的画布设置、画笔类型和丰富的颜色选择,同时允许用户灵活调整图像的风格、纹理及颜色等核心参数,满足个性化创作需求。
- 高效模型:内置的深度学习模型经过精心训练,能够精准捕捉并再现特定艺术家的创作风格,帮助用户快速生成令人惊艳的艺术作品。
配置要求
为了确保Stable Diffusion软件能够流畅运行并发挥**性能,用户需满足以下基本要求:
- 显卡配置:推荐使用NVIDIA显卡,并确保显存至少达到4GB,理想情况下应有12GB或以上,以满足大型模型资源的高效加载和处理。
- 硬盘空间:考虑到模型资源本身的庞大体积,建议为系统预留超过60GB的硬盘空间,以确保稳定运行和未来的扩展需求。
- 操作系统:目前Stable Diffusion主要支持Windows 10或Windows 11操作系统,用户在安装前需注意核对系统兼容性。
安装步骤
为使安装过程更加简便快捷,本教程推荐用户采用一键安装/启动包的方式进行安装:
1. 下载并安装启动器依赖:首先,用户需要从官方或可靠渠道下载并安装“启动器运行依赖”,这是运行Stable Diffusion的基础环境。
2. 复制文件至相应文件夹:安装完成后,用户需将下载到的文件复制至指定的 webui文件夹中,确保所有必需的组件已准备就绪。
3. 启动Stable Diffusion:最后,用户只需双击启动器图标,即可轻松运行Stable Diffusion软件,开始美妙的艺术创作之旅。
基础操作
在掌握了Stable Diffusion的基本安装方法后,用户可以进一步探索其丰富的功能模块和便捷的操作方式。其中,模型切换作为一项重要的基础操作,允许用户根据需要灵活选择不同的深度学习模型,以创造出独具特色的艺术作品。
通过本教程的学习,无论是艺术爱好者还是专业创作者,都将能够充分发掘Stable Diffusion软件的巨大潜力,为自己的艺术创作注入新的活力和灵感。


















这次发布

北京时间,2024 年 7 月 23 日 23 点,Meta 正式发布了其最新的开源模型 - Llama 3.1, 包含8B、70B 和 405B 三个尺寸,最大上下文提升到了 128k。

其中,405B 是其迄今最强大的模型,从评分上看,超过了 GPT-4 0125,和 Claude 3.5 不相上下。

趣闻:被偷跑

昨天下午,405B 的 Llama 疑似在 Hugging Face 被偷跑,并在 Twitter 上引起了一小波的轰动(但这个链接已经访问不到了)。更有好事者将其转化成了磁力链接,大概 800G 大小

上个版本是 Llama-3

3个月前,Meta 开源了 Llama 3 的 8B 和 70B 模型。具体可参见之前的报道:全网首发,Meta Llama-3 全方位详解

开源的Llama 3.1 包含8B、70B 和 405B 三个尺寸,性能提升,最大上下文为 128k。

老模型,新升级

之前推出的 8B 和 70B 版本的 Llama-3 迎来了全新升级,变成了 Llama-3.1,上下文长度增加至 128K,并且有了更强的推理能力。

405B 超大杯

405B 是这次的全新发布,非常聪明。和当下最强的 GPT-4 / Claude 3.5 旗鼓相当

全面提升

更多的比照测试如如下

巨量数据

Llama 3 使用了超过 15 T token 的公开数据进行训练,使用了超过 1.6 万个 H100 GPU

训练思路(本文附92页PDF)

选择标准的仅解码器 transformer 模型架构进行调整,而不是混合专家模型,以最大化训练稳定性。采用了迭代的后训练程序,每一轮使用监督微调和直接偏好优化。

微调

在后期训练中,Llama 通过进行多轮对齐来生成最终的聊天模型。每一轮都涉及到监督微调(SFT)、拒绝抽样(RS)和直接偏好优化(DPO)。使用合成数据生成绝大部分的 SFT 示例,多次迭代以生成质量更高的合成数据,覆盖所有能力。

官方文档

https://llama.meta.com/docs/overview/

Hugging Face

https://huggingface.co/meta-llama

GitHub

https://github.com/meta-llama

Kaggle

https://www.kaggle.com/organizations/metaresearch/models

伴随这次发布的,是扎克伯格致辞:

Open Source AI Is the Path Forward

开源人工智能是未来的发展方向

In the early days of high-performance computing, the major tech companies of the day each invested heavily in developing their own closed source versions of Unix. It was hard to imagine at the time that any other approach could develop such advanced software. Eventually though, open source Linux gained popularity – initially because it allowed developers to modify its code however they wanted and was more affordable, and over time because it became more advanced, more secure, and had a broader ecosystem supporting more capabilities than any closed Unix. Today, Linux is the industry standard foundation for both cloud computing and the operating systems that run most mobile devices – and we all benefit from superior products because of it.

在高性能计算的早期,当时的主要科技公司都大力投资于开发自己的闭源 Unix 版本。当时很难想象其他任何方法能够开发出如此先进的软件。然而最终,开源 Linux 变得流行起来 - 最初是因为它允许开发人员随意修改其代码并且更加经济实惠,随着时间的推移,因为它变得更加先进、更加安全,并且拥有比任何闭源 Unix 更多功能的更广泛生态系统的支持。如今,Linux 是云计算和运行大多数移动设备的操作系统的行业标准基础 - 我们都因此受益于更优质的产品。

I believe that AI will develop in a similar way. Today, several tech companies are developing leading closed models. But open source is quickly closing the gap. Last year, Llama 2 was only comparable to an older generation of models behind the frontier. This year, Llama 3 is competitive with the most advanced models and leading in some areas. Starting next year, we expect future Llama models to become the most advanced in the industry. But even before that, Llama is already leading on openness, modifiability, and cost efficiency.

我相信人工智能会以类似的方式发展。如今,有几家科技公司正在开发领先的封闭模型。但开源很快在缩小差距。去年,Llama 2 只能与边缘之后的旧一代模型相提并论。而今年,Llama 3 在一些领域具有竞争力,甚至在某些方面领先于最先进的模型。从明年开始,我们预计未来的 Llama 模型将成为行业中最先进的。但即使在那之前,Llama 已经在开放性、可修改性和成本效益方面处于领先地位。

Today we’re taking the next steps towards open source AI becoming the industry standard. We’re releasing Llama 3.1 405B, the first frontier-level open source AI model, as well as new and improved Llama 3.1 70B and 8B models. In addition to having significantly better cost/performance relative to closed models, the fact that the 405B model is open will make it the best choice for fine-tuning and distilling smaller models.

今天,我们正在迈出迈向开源人工智能成为行业标准的下一步。我们发布了 Llama 3.1 405B,这是第一个前沿级别的开源人工智能模型,以及新的和改进的 Llama 3.1 70B 和 8B 模型。除了相对于封闭模型具有显着更好的成本/性能之外,405B 模型是开源的事实将使其成为微调和提炼较小模型的**选择。

Beyond releasing these models, we’re working with a range of companies to grow the broader ecosystem. Amazon, Databricks, and Nvidia are launching full suites of services to support developers fine-tuning and distilling their own models. Innovators like Groq have built low-latency, low-cost inference serving for all the new models. The models will be available on all major clouds including AWS, Azure, Google, Oracle, and more. Companies like Scale.AI, Dell, Deloitte, and others are ready to help enterprises adopt Llama and train custom models with their own data. As the community grows and more companies develop new services, we can collectively make Llama the industry standard and bring the benefits of AI to everyone.

除了发布这些模型外,我们还与一系列公司合作,以发展更广泛的生态系统。亚马逊、Databricks 和 Nvidia 正在推出一整套服务,以支持开发人员微调和提炼自己的模型。像 Groq 这样的创新者已为所有新模型构建了低延迟、低成本的推理服务。这些模型将在包括 AWS、Azure、Google、Oracle 等在内的所有主要云上提供。像 Scale.AI、戴尔、德勤等公司已准备好帮助企业采用 Llama 并使用自己的数据训练定制模型。随着社区的壮大和更多公司开发新服务,我们可以共同将 Llama 打造成行业标准,并将人工智能的好处带给每个人。

Meta is committed to open source AI. I’ll outline why I believe open source is the best development stack for you, why open sourcing Llama is good for Meta, and why open source AI is good for the world and therefore a platform that will be around for the long term.

Meta 致力于开源人工智能。我将概述为什么我相信开源是最适合您的开发堆栈,为什么开源 Llama 对 Meta 有好处,以及为什么开源人工智能对世界有益,因此是一个长期存在的平台。

Why Open Source AI Is Good for Developers

开源人工智能之于开发者的益处

When I talk to developers, CEOs, and government officials across the world, I usually hear several themes:

当我与世界各地的开发人员、首席执行官和政府官员交谈时,通常会听到一些共同的主题:

We need to train, fine-tune, and distill our own models. Every organization has different needs that are best met with models of different sizes that are trained or fine-tuned with their specific data. On-device tasks and classification tasks require small models, while more complicated tasks require larger models. Now you’ll be able to take the most advanced Llama models, continue training them with your own data and then distill them down to a model of your optimal size – without us or anyone else seeing your data.

我们需要训练、微调和提炼我们自己的模型。每个组织都有不同的需求,最好使用不同尺寸的模型来满足这些需求,这些模型是通过特定数据进行训练或微调的。设备上的任务和分类任务需要小型模型,而更复杂的任务则需要更大的模型。现在,您可以使用最先进的 Llama 模型,继续使用您自己的数据对其进行训练,然后将其提炼为您理想尺寸的模型 - 而无需我们或其他人看到您的数据。

We need to control our own destiny and not get locked into a closed vendor. Many organizations don’t want to depend on models they cannot run and control themselves. They don’t want closed model providers to be able to change their model, alter their terms of use, or even stop serving them entirely. They also don’t want to get locked into a single cloud that has exclusive rights to a model. Open source enables a broad ecosystem of companies with compatible toolchains that you can move between easily.

我们需要掌控自己的命运,不要被困在封闭的供应商中。许多组织不愿意依赖他们无法运行和控制的模型。他们不希望封闭的模型提供商能够改变他们的模型,修改使用条款,甚至完全停止为他们提供服务。他们也不想被锁定在一个拥有模型独家权利的单一云中。开源使得有兼容工具链的广泛公司生态系统成为可能,您可以轻松地在它们之间移动。

We need to protect our data. Many organizations handle sensitive data that they need to secure and can’t send to closed models over cloud APIs. Other organizations simply don’t trust the closed model providers with their data. Open source addresses these issues by enabling you to run the models wherever you want. It is well-accepted that open source software tends to be more secure because it is developed more transparently.

我们需要保护我们的数据。许多组织处理敏感数据,需要保护并且不能将其发送到云 API 上的封闭模型。其他组织简单地不信任封闭模型提供商处理他们的数据。开源通过使您能够在任何地方运行模型来解决这些问题。众所周知,开源软件往往更安全,因为它的开发更加透明。

We need a model that is efficient and affordable to run. Developers can run inference on Llama 3.1 405B on their own infra at roughly 50% the cost of using closed models like GPT-4o, for both user-facing and offline inference tasks.

我们需要一个高效且价格实惠的模型来运行。开发者可以在他们自己的基础设施上运行 Llama 3.1 405B 上的推理,成本大约是使用像 GPT-4o 这样的封闭模型的 50%,适用于用户界面和离线推理任务。

We want to invest in the ecosystem that’s going to be the standard for the long term. Lots of people see that open source is advancing at a faster rate than closed models, and they want to build their systems on the architecture that will give them the greatest advantage long term.

我们希望投资于那些将成为长期标准的生态系统。许多人认为开源发展速度比封闭模型快,他们希望在能够为他们提供最大长期优势的架构上构建自己的系统。

Why Open Source AI Is Good for Meta

为什么开源人工智能对 Meta 有益

Meta’s business model is about building the best experiences and services for people. To do this, we must ensure that we always have access to the best technology, and that we’re not locking into a compe*****’s closed ecosystem where they can restrict what we build.

Meta 的商业模式是致力于为人们打造**体验和服务。为了实现这一目标,我们必须确保始终能够获得最先进的技术,避免陷入竞争对手的封闭生态系统,他们可能会限制我们的构建。

One of my formative experiences has been building our services constrained by what Apple will let us build on their platforms. Between the way they tax developers, the arbitrary rules they apply, and all the product innovations they block from shipping, it’s clear that Meta and many other companies would be freed up to build much better services for people if we could build the best versions of our products and compe*****s were not able to constrain what we could build. On a philosophical level, this is a major reason why I believe so strongly in building open ecosystems in AI and AR/VR for the next generation of computing.

我的一次重要经历是在我们的服务受到苹果平台限制时建设。在他们对开发者征税的方式、他们施加的武断规则以及阻止我们推出的所有产品创新之间,很明显,如果我们能够构建我们产品的**版本且竞争对手无法限制我们的构建,Meta 和许多其他公司将能够为人们构建更好的服务。从哲学层面上说,这是我坚信在 AI 和 AR/VR 开放生态系统中构建下一代计算的重要原因之一。

People often ask if I’m worried about giving up a technical advantage by open sourcing Llama, but I think this misses the big picture for a few reasons:

人们经常问我是否担心通过开源 Llama 而失去技术优势,但我认为这样做忽略了更重要的一些方面:

First, to ensure that we have access to the best technology and aren’t locked into a closed ecosystem over the long term, Llama needs to develop into a full ecosystem of tools, efficiency improvements, silicon optimizations, and other integrations. If we were the only company using Llama, this ecosystem wouldn’t develop and we’d fare no better than the closed variants of Unix.

Second, I expect AI development will continue to be very competitive, which means that open sourcing any given model isn’t giving away a massive advantage over the next best models at that point in time. The path for Llama to become the industry standard is by being consistently competitive, efficient, and open generation after generation.

其次,我预计人工智能的发展将继续保持竞争激烈,这意味着在某一特定时间点开源任何模型并不会给予比下一个**模型更大的优势。Llama 要成为行业标准,关键在于一代又一代地保持竞争力、高效性和开放性。

Third, a key difference between Meta and closed model providers is that selling access to AI models isn’t our business model. That means openly releasing Llama doesn’t undercut our revenue, sustainability, or ability to invest in research like it does for closed providers. (This is one reason several closed providers consistently lobby governments against open source.)

第三,Meta 和封闭模型提供商之间的一个关键区别是,出售 AI 模型的访问权限并不是我们的商业模式。这意味着公开发布 Llama 并不会损害我们的收入、可持续性或研究投资能力,就像对封闭提供商那样。(这也是几家封闭提供商一直在游说政府反对开源的原因之一。)

Finally, Meta has a long history of open source projects and successes. We’ve saved billions of dollars by releasing our server, network, and data center designs with Open Compute Project and having supply chains standardize on our designs. We benefited from the ecosystem’s innovations by open sourcing leading tools like PyTorch, React, and many more tools. This approach has consistently worked for us when we stick with it over the long term.

最后,Meta 拥有悠久的开源项目和成功历史。通过与 Open Compute Project 共享我们的服务器、网络和数据中心设计,并让供应链标准化我们的设计,我们节省了数十亿美元。我们通过开源领先工具如 PyTorch、React 等受益于生态系统的创新。长期坚持这种方法对我们一直有效。

Why Open Source AI Is Good for the World

开源人工智能之于世界的益处

I believe that open source is necessary for a positive AI future. AI has more potential than any other modern technology to increase human productivity, creativity, and quality of life – and to accelerate economic growth while unlocking progress in medical and scientific research. Open source will ensure that more people around the world have access to the benefits and opportunities of AI, that power isn’t concentrated in the hands of a small number of companies, and that the technology can be deployed more evenly and safely across society.

我相信开源对于积极的人工智能未来是必要的。人工智能拥有比任何其他现代技术更大的潜力,可以提高人类的生产力、创造力和生活质量,加速经济增长,同时在医学和科学研究领域推动进展。开源将确保全球更多人能够分享人工智能的好处和机会,避免权力过度集中在少数公司手中,同时可以更均衡、更安全地在社会各个领域推广这项技术。

There is an ongoing debate about the safety of open source AI models, and my view is that open source AI will be safer than the alternatives. I think governments will conclude it’s in their interest to support open source because it will make the world more prosperous and safer.

目前存在关于开源 AI 模型安全性的辩论,我认为开源 AI 将比其他选择更安全。我认为各国政府会得出结论,支持开源符合他们的利益,因为这将使世界更加繁荣和安全。

My framework for understanding safety is that we need to protect against two categories of harm: unintentional and intentional. Unintentional harm is when an AI system may cause harm even when it was not the intent of those running it to do so. For example, modern AI models may inadvertently give bad health advice. Or, in more futuristic scenarios, some worry that models may unintentionally self-replicate or hyper-optimize goals to the detriment of humanity. Intentional harm is when a bad actor uses an AI model with the goal of causing harm.

我对安全的理解框架是,我们需要保护免受两类伤害:无意和有意。无意伤害是指当人工智能系统可能造成伤害,即使运行它的人并非有意这样做。例如,现代人工智能模型可能无意中给出错误的健康建议。或者,在更具未来感的场景中,一些人担心模型可能无意中自我复制或过度优化目标,对人类造成损害。有意伤害是指恶意使用人工智能模型的坏人以造成伤害。

It’s worth noting that unintentional harm covers the majority of concerns people have around AI – ranging from what influence AI systems will have on the billions of people who will use them to most of the truly catastrophic science fiction scenarios for humanity. On this front, open source should be significantly safer since the systems are more transparent and can be widely scrutinized. Historically, open source software has been more secure for this reason. Similarly, using Llama with its safety systems like Llama Guard will likely be safer and more secure than closed models. For this reason, most conversations around open source AI safety focus on intentional harm.

值得注意的是,大多数人对人工智能的担忧主要集中在无意造成的伤害上 - 从 AI 系统对将使用它们的数十亿人的影响到人类大部分真正灾难性的科幻场景。在这方面,开源应该更安全,因为这些系统更加透明,可以被广泛审查。从历史上看,出于这个原因,开源软件更安全。同样,使用带有 Llama Guard 等安全系统的 Llama 可能比封闭模型更安全、更可靠。因此,大多数关于开源 AI 安全的讨论都集中在有意造成的伤害上。

Our safety process includes rigorous testing and red-teaming to assess whether our models are capable of meaningful harm, with the goal of mitigating risks before release. Since the models are open, anyone is capable of testing for themselves as well. We must keep in mind that these models are trained by information that’s already on the internet, so the starting point when considering harm should be whether a model can facilitate more harm than information that can quickly be retrieved from Google or other search results.

我们的安全流程包括严格测试和红队评估,以评估我们的模型是否有造成实质性危害的能力,目标是在发布之前减轻风险。由于这些模型是开放的,任何人都可以自行测试。我们必须记住,这些模型是通过已经在互联网上的信息进行训练的,因此在考虑危害时的起点应该是模型是否能比可以从谷歌或其他搜索结果中快速获取的信息带来更多危害。

When reasoning about intentional harm, it’s helpful to distinguish between what individual or small scale actors may be able to do as opposed to what large scale actors like nation states with vast resources may be able to do.

在思考有意图的伤害时,有助于区分个人或小规模行为者可能采取的行动,与拥有庞大资源的国家等大规模行为者可能采取的行动。

At some point in the future, individual bad actors may be able to use the intelligence of AI models to fabricate entirely new harms from the information available on the internet. At this point, the balance of power will be critical to AI safety. I think it will be better to live in a world where AI is widely deployed so that larger actors can check the power of smaller bad actors. This is how we’ve managed security on our social networks – our more robust AI systems identify and stop threats from less sophisticated actors who often use smaller scale AI systems. More broadly, larger institutions deploying AI at scale will promote security and stability across society. As long as everyone has access to similar generations of models – which open source promotes – then governments and institutions with more compute resources will be able to check bad actors with less compute.

在未来的某个时候,个别不良分子可能会利用人工智能模型的智能,从互联网上可获得的信息中制造全新的危害。在这一点上,权力的平衡对人工智能安全至关重要。我认为生活在一个人工智能广泛部署的世界会更好,这样更大的行动者可以制约较小的不良分子的权力。这就是我们在社交网络上管理安全的方式——我们更强大的人工智能系统识别并阻止那些经常使用较小规模人工智能系统的不那么复杂的行动者的威胁。更广泛地说,大型机构大规模部署人工智能将促进社会的安全和稳定。只要每个人都能访问相似世代的模型 - 这正是开源所倡导的 - 那么拥有更多计算资源的政府和机构就能够用更少的计算资源来审查不良行为者。

The next question is how the US and democratic nations should handle the threat of states with massive resources like China. The United States’ advantage is decentralized and open innovation. Some people argue that we must close our models to prevent China from gaining access to them, but my view is that this will not work and will only disadvantage the US and its allies. Our adversaries are great at espionage, stealing models that fit on a thumb drive is relatively easy, and most tech companies are far from operating in a way that would make this more difficult. It seems most likely that a world of only closed models results in a small number of big companies plus our geopolitical adversaries having access to leading models, while startups, universities, and small businesses miss out on opportunities. Plus, constraining American innovation to closed development increases the chance that we don’t lead at all. Instead, I think our best strategy is to build a robust open ecosystem and have our leading companies work closely with our government and allies to ensure they can best take advantage of the latest advances and achieve a sustainable first-mover advantage over the long term.

美国和民主国家应该如何应对像中国这样拥有大量资源的国家的威胁是下一个问题。美国的优势在于分散和开放的创新。有人认为我们必须关闭我们的模式,以防止中国获得对它们的访问,但我认为这不会奏效,只会给美国及其盟友带来不利。我们的对手擅长间谍活动,窃取适合放在一个拇指驱动器上的模式相对容易,而大多数科技公司远未以使这更加困难的方式运作。似乎最有可能的情况是,只有封闭模型的世界会导致少数几家大公司以及我们的地缘政治对手能够访问领先的模型,而初创公司、大学和小型企业则错失机会。此外,将美国的创新限制在封闭开发中会增加我们根本无法领先的可能性。相反,我认为我们最好的策略是建立一个强大的开放生态系统,并让我们领先的公司与我们的政府和盟友密切合作,确保他们能够最好地利用最新进展,并在长期内取得可持续的先发优势。

When you consider the opportunities ahead, remember that most of today’s leading tech companies and scientific research are built on open source software. The next generation of companies and research will use open source AI if we collectively invest in it. That includes startups just getting off the ground as well as people in universities and countries that may not have the resources to develop their own state-of-the-art AI from scratch.

在考虑未来的机遇时,请记住,今天大多数领先的科技公司和科学研究都是建立在开源软件的基础上的。如果我们共同投资于开源人工智能,下一代公司和研究将使用开源人工智能。这包括刚刚起步的初创公司,以及那些可能没有资源从头开始开发自己最先进人工智能的大学和国家的人。

The bottom line is that open source AI represents the world’s best shot at harnessing this technology to create the greatest economic opportunity and security for everyone.

开源人工智能代表着世界最好的机会,利用这项技术创造最大的经济机会和安全保障。

Let’s Build This Together

让我们一起建设这个项目

With past Llama models, Meta developed them for ourselves and then released them, but didn’t focus much on building a broader ecosystem. We’re taking a different approach with this release. We’re building teams internally to enable as many developers and partners as possible to use Llama, and we’re actively building partnerships so that more companies in the ecosystem can offer unique functionality to their customers as well.

在过去的羊驼模型中,Meta 为我们自己开发了它们,然后发布,但并没有过多关注构建更广泛的生态系统。这次发布我们采取了不同的方式。我们正在内部建立团队,以使尽可能多的开发人员和合作伙伴使用羊驼,并积极建立合作关系,以便生态系统中更多公司也能为其客户提供独特功能。

I believe the Llama 3.1 release will be an inflection point in the industry where most developers begin to primarily use open source, and I expect that approach to only grow from here. I hope you’ll join us on this journey to bring the benefits of AI to everyone in the world.

我相信 Llama 3.1 版本将成为行业的一个转折点,大多数开发人员将开始主要使用开源,我期待这种方法从这里开始不断增长。希望您能加入我们,一起努力将人工智能的好处带给世界上的每个人。

读者福利:如果大家对大模型感兴趣,这套大模型学习资料一定对你有用

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

👉AI大模型学习路线汇总👈

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

👉大模型视频和PDF合集👈

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

总结

本心、输入输出、结果

文章目录

META 备受期待的 Llama 3 405B 即将发布

前言

Llama 3 405B或许会彻底改变专用模型的数据质量

 Llama 3 405B将形成新的模型生态系统:从基础模型到专家组合 Llama 3 405B有最高效 API 的竞争 Llama 3 405B 基准测试 

META 备受期待的 Llama 3 405B 即将发布

META 备受期待的 Llama 3 405B 即将发布

META 备受期待的 Llama 3 405B 即将发布

作为Llama 3系列中的顶配,405B版本拥有4050亿个参数,是迄今为止最大的开源模型之一

有分析认为,Llama 3 405B不仅仅是人工智能能力的又一次提升,对于开源AI 来说,“这是一个潜在的ChatGPT时刻”,其中最先进的人工智能真正实现民主化并直接交到开发人员手中。

Llama 3 405B或许会彻底改变专用模型的数据质量

对于专注于构建专业AI模型的开发人员来说,他们面临的长期挑战是获取高质量的训练数据。较小的专家模型(1-10B 个参数)通常利用蒸馏技术,利用较

总结

文章总结:META Llama 3 405B 即将发布的重大影响
META即将发布的Llama 3 405B是一款备受期待的顶级人工智能模型,拥有4050亿个参数,是当下最大的开源模型之一。这一发布不仅标志着人工智能能力的又一次显著提升,更预示着开源AI领域将迎来一个潜在的“ChatGPT时刻”,即最先进的人工智能技术将被民主化并直接交到开发人员手中。
核心影响
1. 数据质量的跃升:
- Llama 3 405B有望彻底改变专用模型的数据质量问题。对于长期面临高质量训练数据获取难题的专业AI模型开发者而言,这无疑是个重大利好。这一模型可能通过其强大的生成能力和广泛的数据资源,为专业模型提供高质量的数据支持。
2. 模型生态系统的重塑:
- 405B版本不仅是一个独立的强大模型,更将形成一个新的模型生态系统。这一系统将从基础模型出发,引领一系列专家组合模型的诞生,从而推动整个AI领域的创新与发展。
3. API竞争的新格局:
- 随着Llama 3 405B的发布,高效API的竞争也将进入新的阶段。各大开发者将竞相优化API服务,以提供更快、更准确、更便捷的调用接口,从而进一步推动AI应用的普及和深化。
4. 基准测试的新标杆:
- 405B版本的发布也将为AI模型的基准测试树立新的标杆。通过与该模型进行对比测试,可以更加准确地评估其他模型的性能和优劣势,从而为AI技术的发展提供更为科学的指导。
综上所述,META Llama 3 405B的即将发布将对整个开源AI领域产生深远的影响。无论是从数据质量、模型生态系统、API竞争还是基准测试等方面来看,这一发布都将引领AI技术向着更加民主化、高效化、科学化的方向前进。

本次教程将使用AI绘画工具 Stable Diffusion 进行讲解,如还未安装SD的小伙伴可以看我往期入门教程2024最新超强AI绘画Stable Diffusion整合包安装教程,一键教你本地部署!,安装包请扫描免费获取哦https://blog.csdn.net/z19981/article/details/?spm=1001.2014.3001.5501

还是看看今天的5个LoRA吧!

一、超现实风格电商场景

底模:ReVAnimated_v1.1

引导比例:1

触发词:c4dplus,outdoors,blue sky

推荐提示词:square/round booth(圆形/方形地台) ,white(主题颜色),white light(光效颜色),(masterpiece),(best quality:1.2),(extremely detailed CG unity 8k wallpaper) ,(photorealistic:1.4)

负面提示词:(worst quality, low quality, normal quality:2),Text, Watermark,logo,human

采样方法:DPM++SDE Karras

迭代步数:30

推荐尺寸:512×768

提示词引导系数(CFG):7.0

二、超现实风格电商展台

底模:室内推荐Ghostmix,室外推荐ReVAnimated_v1.1

引导比例:1

触发词:无

推荐提示词:

户外场景:masterpiece,best quality,dianshangplus,shiwai,sky

室内场景:masterpiece,best quality,dianshangplus,indoor,minimalism,geometric form

负面提示词:(worst quality, low quality, normal quality:2),Text, Watermark,logo,human

采样方法:Euler a

迭代步数:20

推荐尺寸:512×768

提示词引导系数(CFG):7.0

三、科幻风格电商背景

网址:https://www.liblib.ai/modelinfo/8c9536c3c70d409e9fd44ceb8

底模:真实感必备模型|ChilloutMix

引导比例:0.8

触发词:Science fiction-style booth background(科幻风格电商背景),future style(未来风格)

推荐提示词:square/round booth(圆形/方形地台) ,white(主题颜色),white light(光效颜色),(masterpiece),(best quality:1.2),(extremely detailed CG unity 8k wallpaper) ,(photorealistic:1.4)

负面提示词:(worst quality, low quality, normal quality:2),Text, Watermark,logo,human

采样方法:DPM++SDE Karras

迭代步数:30

推荐尺寸:512×768

提示词引导系数(CFG):7.0

四、电商空间几何场景

网址:https://www.liblib.ai/modelinfo/bdcba09d1477d88504cd80

底模:majicmixRealistic

引导比例:0.9

触发词:无

推荐提示词:dianshang,(no humans:1.4),best quality,many details,octane render,C4D,studio lighting,sunshine,axisymmetric,geometric elements,science fiction space,spatial perspective,(simple background:1.2),后边自行发挥

负面提示词:ng_deepnegative_v1_75t,EasyNegative,badhandv4,By bad artist -neg,(worst quality:2),(low quality:2),(normal quality:2),lowres,bad anatomy,bad hands,bad arms,normal quality,((monochrome)),((grayscale)),text,watermark,

采样方法:Restart

迭代步数:30-50

推荐尺寸:512×768

提示词引导系数(CFG):7.0

高清修复设置:放大算法:4X-UltraSharp 重绘幅度 0.2-0.35 高清修复采样 30

五、室内风格电商背景

网址:https://www.liblib.ai/modelinfo/fb381bdec9e9a6d3f58c0

底模:真实感必备模型|ChilloutMix

引导比例:0.8

触发词:Indoor small fresh style e-commerce background(简约风格电商背景)

推荐提示词::Front view/Side View(正/侧视图),Empty countertops(空的台面),yellow wall(黄墙),depth of field(景深),vase,flower,(best quality:1.2),(photorealistic:1.4)

负面提示词:Subject matter,human,(worst quality, low quality, normal quality:2)

采样方法:DPM++SDE Karras

迭代步数:30

推荐尺寸:512×768

提示词引导系数(CFG):7.0

100款Stable Diffusion超实用插件,涵盖目前几乎所有的,主流插件需求。

全文超过4000字。

我把它们整理成更适合大家下载安装的【压缩包】,无需梯子,并根据具体的内容,拆解成一二级目录,以方便大家查阅使用。

单单排版就差不多花费1个小时。

希望能让大家在使用Stable Diffusion工具时,可以更好、更快的获得自己想要的答案,以上。

如果感觉有用,帮忙点个支持,谢谢了。

在我们出图的时候,最头疼的就是出的图哪有满意,就是手部经常崩坏。只要放到 ControlNet 里面再修复。

现在我们只需要在出图的时候启动 Adetailer 就可以很大程度上修复脸部和手部的崩坏问题

换脸插件,只需要提供一张照片,就可以将一张脸替换到另一个人物上,这在娱乐和创作中非常受欢迎。

这个插件可以轻松的创建、组织和共享模型预设。有了这个功能,就不再需要记住每个模型的** cfg_scale、实现卡通或现实风格的特定触发词,或者为特定图像类型产生令人印象深刻的结果的设置!

已经被赞爆的现代化 Web UI 主题。相比传统的 Web UI 体验性大大加强。

使用这个插件可以直接输入中文,调取对应的英文提示词。并且能够根据未写完的英文提示词提供补全选项,在键盘上按↓箭头选择,按 enter 键选中

这个插件提供双语翻译功能,使得界面可以支持两种语言,对于双语用户来说是一个很有用的功能。

提供提示词功能,可能帮助用户更好地指导图像生成的方向。

上千个提示词,无需英文基础快速输入提示词,该词库还在不断更新。

以后再也不担心英文写出不卡住思路了!

总结

本文是一篇详细的使用Stable Diffusion AI绘画工具的教程,涵盖了五个各具特色的电商场景LoRA模型应用案例及其参数设置,以及介绍了100款Stable Diffusion的超实用插件。以下是核心内容总结:
教程内容
1. 超现实风格电商场景与展台
- 场景一:超现实风格电商场景,使用ReVAnimated_v1.1模型,引导出具有蓝色天空和圆形/方形地台的户外场景。
- 场景二:超现实风格电商展台,室内推荐Ghostmix,室外推荐ReVAnimated_v1.1,分别适用不同的提示词和采样方法,创造高质量的场景。
2. 科幻风格与电商几何场景
- 场景三:科幻风格电商背景,基于ChilloutMix模型,利用科幻关键词生成未来感的电商背景。
- 场景四:电商空间几何场景,采用majicmixRealistic底模,通过特定提示词创建具有高度几何美感的电商空间。
3. 室内风格电商背景
- 场景五:室内简约风格电商背景,同样基于ChilloutMix模型,通过暖色调、景深等元素营造简洁舒适的购物环境。
主要参数与插件
- 各场景均详细列出了底模、引导比例、触发词、推荐与负面提示词、采样方法、迭代步数、推荐尺寸和CFG。
- 提供了超过100款Stable Diffusion的实用插件,包括面部与手部修复、AI换脸、模型预设管理器、现代化Web UI主题、提示词自动补齐与翻译插件等,极大提升了AI绘图效率与作品质量。
附加资源
- 提供了插件整合包的免费下载链接与以往Stable Diffusion整合包的安装教程链接,便于用户一键部署与高效使用。
总结
本文不仅介绍了如何通过调整不同的参数与模型,在Stable Diffusion中创作出多风格的电商背景图像,还全面展示了如何利用丰富的插件资源,提升作品质量与创作效率。对于希望掌握Stable Diffusion工具的用户来说是一篇极具价值的参考教程。

自从GPT问世以后,国内的AI工具也如雨后春笋,纷纷面世。面对众多的AI工具,可能你会觉得无从下手,很难选择。笔者虽不能说把所有的AI工具都试用了一遍,但经过亲身实践,挑选了以下五款使用起来比较方便的AI写作工具,如果你是AI写作小白,正打算尝试用AI写作但是无从下手的话,可以考虑从中选择一款或几款试用。

一、笔灵AI写作:创意无限的文字生成器

入口:https://ibiling.cn/?from=csdn15

笔灵AI写作是一款全能型的AI写作工具,界面简洁,操作简单,海量的写作模板基本能满足你所有的写作需求。

它包含了论文大纲、公文写作、工作总结、撰写文案、述职报告、教学课件等在内的200+写作模板,覆盖了包括办公、机关单位、教育教学、自媒体等多个写作场景。

用户只需简单输入标题和描述,笔灵就能通过先进的AI技术,自动识别要求,几秒之内就能快速生成一篇优质的文稿内容。

此外,笔灵AI还具有智能续写、扩写、改写、简写等功能,无论是黔驴技穷还是灵感全无,它都能帮你解决写作难题。

而且这个改写功能,还能选择五种不同的语气,可以满足不同场合下的需求,是不是很棒?!

一起来看看同一段文字用不同语气改写后的效果吧:

还有续写的内容质量也是很高的:

所以这款工具是非常推荐使用的。

二、笔灵AI论文:学术写作的好帮手

入口:https://ibiling.cn/paper?from=csdnpaper10

笔灵论文写作是一款专业的AI论文生成工具,能够帮助学生和学者更高效地撰写论文。它基于大型语言模型,可以自动生成论文的各类内容,如开题报告、毕业论文、职称论文等。

用户只需进入笔灵论文写作官方网站,选择专业并输入论文题目,即可生成千字大纲目录。而且,大纲的生成速度是很快的,基本60秒以内就能搞定

然后,用户可以编辑大纲,生成全文模板,根据需要增加、删减章节,修改章节内容。

大纲确定以后,就可以生成论文初稿了。这个速度也是很棒的,大约五分钟之内就可以完成,而且查重率很低,你还可以先预览一下文稿,看看是不是自己想要的效果。最后,下载论文文件,即可得到初步的论文草稿。

这款工具覆盖了700+学科专业,可以满足不同用户的需求。

三、AIcheck:从选题到论文都可搞定

入口: https://www.aicheck.cc/

除了笔灵论文,推荐另一个论文写作的AI工具:AIcheck。

这个工具比较好用的也是区别于其他论文写作工具的地方,我觉得就是它可以生成论文选题。

因为很多人写论文,可能从选题开始就很头疼了对吧?所以这个生成选题的功能还是很友好的。

同样的,它还可以根据需求,单独生成开题报告、文献综述等不同的部分。

四、逐笔AI公文:专业公文写作神器

入口:https://zhubiai.com/template?from=csdn06

体制内可以说是人人羡慕的工作了,但是他们也有自己的烦恼:工作规范性强、工作量大又枯燥无味。有了公文写作AI工具可以轻松解决公文写作的烦恼。

逐笔就是一款专门针对公文写作的AI工具。一些常用的公文写作,例如心得体会、思想感悟、宣传演讲、计划方案、讲话发言等,它都能搞定:

逐笔AI的操作很简单,只需输入标题和关键词(关键词也可以不写),点击生成,即可产出你想要的内容。

公文格式要求严,写起来可能比较枯燥,引经据典、排比等这些写作手法就显得很重要了。但是“书到用时方恨少”,写作起来你经常会发现搜肠刮肚也难以找到合适的经典或句子。而逐笔AI有一个金句写作功能,排比、引用、双关、拟人化等都不在话下。

如果你有公文写作的需求,这款工具是一个不错的选择。

五、新华妙笔:大量范文可以学习

入口:https://miaobi.xinhuaskl.com/

新华妙笔也是一款专门针对公文写作的AI工具。作为新华社推出的AI公文写作平台,新华妙笔在公文写作方面是非常专业的。看下它的界面,公文类型非常地全面:

另外,它还提供了大量的各种类型的公文范文可以进行学习:

在这里还能找到大量的写作素材,能为你的工文写作提供非常有用的支持!

这五款AI写作工具各具特色,功能强大且实用。它们不仅提高了写作效率,还为创作者们带来了更多的创作灵感和可能性。当然,我们也要意识到,虽然AI工具在写作过程中起到了很大的辅助作用,但真正的创意和深度思考仍然需要人类来完成。希望这组AI工具组合能为你的创作之路增添一抹亮色!

总结

文章总结如下:
随着数字化时代的发展,AI工具在各类写作任务中变得不可或缺。面对市面上众多的AI写作工具,作者精选了五款使用方便的工具推荐给写作新手或尝试AI写作的用户。
1. 笔灵AI写作:一款全能型AI写作工具,界面简洁、操作简便。提供了超过200种写作模板,涵盖各类办公、学术及媒体写作场景。能自动、快速生成文稿,并具备智能续写、扩写、改写及多种语气选择等强大功能。
2. 笔灵AI论文:专注于学术论文撰写的AI工具。能自动生成论文大纲及初稿,涵盖700多个学科专业,极大地提升了学术写作的效率。
3. AIcheck:一款从论文选题到具体内容撰写的全方位支持工具。其特色在于能生成论文选题,并可根据需求单独生成开题报告、文献综述等。
4. 逐笔AI公文:专注于公文写作的AI神器,能生成多种常用公文内容,包括心得体会、思想感悟、宣传演讲等。特别提供了金句写作功能,助于提升公文写作的文采与表达力。
5. 新华妙笔:由新华社推出的专业公文写作AI平台,界面全面、公文类型丰富。不仅能智能生成公文,还提供了大量范文和素材供学习,是公文写作者的实用工具。
这些AI工具不仅提高了写作效率,还带来了更多创作灵感,但创意和深度思考仍需人类贡献。希望这组工具组合能助力用户的创作之旅。

        随着生成式人工智能(AIGC)技术的不断演进和普及,其应用领域已从科研领域的结构化模拟逐步扩展至人们的日常生活。当前,生成式AI科学的发展正进入一个以跨学科融合为特征的崭新阶段,其持续创新推动中发挥着强大动力作用。然而,随着人工智能技术的深入发展和广泛应用,一系列社会问题也随之涌现,如艺术观念的变革、产权问题的挑战、伦理道德的困境等。这些问题不仅影响着技术自身的进步,更是一场酝酿中的“源于科技的伦理危机”。

        在社会科学领域,以AI绘画为研究对象的多学科交汇选题日益受到关注,吸引了哲学、社会学、经济学等学科的积极参与。这些学科通过各自独特的视角和方法论为AI艺术的未来发展提供了丰富多样的观点和层次,共同构建了多元化、互动性强的学术生态。

        本文以《生成式AI绘画背景下的伦理问题》为题,结合多学科研究背景对AI绘画艺术产生的社会现象的进行分析,论述人工智能技术之发展当下面临的工程伦理问题,以及未来发展需要怎样的治理方法。

关键词: 生成式人工智能;AIGC绘画;伦理问题;社会科学;

        生成式人工智能绘画作为技术与艺术的交汇点,在当前网络、大数据和人工智能等新技术的推动下,生成式人工智能绘画所带来的科技风暴似乎正以难以抵挡之势冲击着视觉艺术领域,开启了一个被称为“生成艺术创造”的新纪元。只不过,随着新事物的产生,带来的往往还有社会层面的诸多系统性问题。在AI绘画诞生后,机器生成的艺术作品取代甚至超越了众多艺术创作者的劳动,可以混淆视听的不当传播带来了一系列的负面影响......矛盾随之而来,拉扯着这个新兴科技健康发展。

        在AI技术的演进过程中,科技无疑是其推动力的重要来源。而单纯依赖科技并不能解决AI发展路线上的所有问题,社会科学的重要性便由此凸显出来。社会科学意在通过其独特的视角和方法论,为AI技术的发展提供必要的伦理、哲学和社会支持,以确保AI在创新和应用中能够遵循基本的人类价值观,并与社会结构、文化习俗等相协调。可以见得哲学和社会科学等理论工具同样意义非凡。

        现如今AI绘画的伦理问题从何而来?咱们不妨回看一下其发展历史。

        生成式人工智能绘画的发展过程,可谓科技与艺术交融的一大缩影。19世纪70年代初期, 艺术家哈罗德·科恩开发了AARON程序,用机械臂配合预先设定的算法与规则,应用局限于个人风格简单的模仿与再现,其创作成果往往缺乏独特性与创造性。然而,随着深度学习技术的突破性进展,2012-2014年,吴恩达团队使用机器学习方式,成功训练电脑绘制猫脸图像。此后,机器不再依赖人工编码的规则,而是通过大量的数据训练模型,使其学会生成特征和样式,作品更加逼真和多样。

        现如今,生成式人工智能开始展现出前所未有的创作潜力。特别是在近年来,基于神经网络的生成对抗网络(GANs)等技术的广泛应用,使得人工智能不仅能够学习并模仿大量现存的艺术作品风格,还能在一定程度上自主创造出新颖的视觉表达。至此,AIGC的绘画应用正式面向广泛大众,伦理问题自此有了受众基础。

       在2022年,在美国科罗拉多州艺术博览会上,最终一举夺魁的《太空歌剧院》居然是由游戏设计师AI绘画作品。这一戏剧性事件所引发的社会反响远超出了其艺术范畴,不仅让人赞叹生成式人工智能在模仿真实艺术家风格上的惊人能力,同样也带来了巨大的争议。人们开始警惕AI开始“取代”人艺术创造的能力,同时这种技术也引发了版权和侵权问题的聚焦,伦理问题成为一个重要的讨论焦点。

图1-获奖AI绘画作品《太空歌剧院》

        这一事件仅仅是人工智能跨学科发展所引发众多社会现象中的冰山一角。生成式技术在艺术领域的应用已经不仅仅局限于工具性的辅助角色,而是开始触及到艺术创造的核心领域。这一发展趋势,实际上也折射出了跨越社会科学各学科时所面临的复杂挑战的可能。

        从法学的角度,生成的作品引发了关于版权和知识产权的深刻讨论。《太空歌剧院》这样的作品在版权上应如何归属?是归属于使用了人工智能技术的“创作者”(在这种情况下是Jason Allen),还是应该归属于算法的开发者,抑或是那些被AI“学习”了的原始艺术家?这些问题对于现有的版权法律框架构成了挑战,法学要解决的问题则是对知识产权法律进行重新审视和修订。

        无独有偶,以耳熟能详的生成式绘画平台Midjourney也在权利问题上面临了争议。 其主流数据集包含超过33万张图像和250万个标题,涵盖大约80个对象类别、概念和场景。其他引用的流行的训练数据集包括Visual Genome数据集,包含超过10.8万张图像和400万个对象样本,以及Flickr30k数据集,包含超过3.1万张图像和15.8万个文本描述。在一次福布斯采访中,该公司的首席执行官丹尼尔·霍尔兹承认,公司在训练其人工智能图像生成器时使用了数亿张来自互联网的图片,而未征得作者的同意。这一披露引发了艺术家们的强烈愤慨,他们认为自己的作品被挪用,却没有得到任何补偿。

        法律对于不同的意识形态背景下有不同的表现形态,中国和美国的也同样对此有不同的实践。如在2023年的美国新规中强调“如果作品的传统作者身份要素是由机器产生的,则该作品缺乏人类作者身份,主管局不会对其进行注册。”《太空歌剧院》的版权实践:版权局同意艾伦使用后期修改的仅画作部分构成原创作品,并坚称人工智能生成的部分不能获得版权保护。其理由是:该作品生成部分包含的人类创造性投入的程度低于最低限度。而在中国版权法中规定“在无委托合同约定的情况下,著作权应由决定人工智能核心代码、训练数据来源和发展偏好的设计者享有。”

        法学作为人工智能绘画中解决商业伦理问题的主要力量,对于人工智能学科的意义在于,为AI生成的作品提供版权和知识产权的法律指引和保障。随着生成式技术的发展,如何合理界定AI作品的版权归属成为亟待解决的问题。如果法学学科不通过审视和修订现有的版权法律框架,不同国家和地区就不会具有特色的实践方案。可以见得,法律实践在保护创作者的权益,以及对生成技术创新应用的法律支持方面,还有很多商业伦理治理任务值得进一步探索与实践。

        随着人工智能技术的迅猛发展,AI绘画作为其在艺术领域的重要应用,引发了社会各界的广泛关注。然而,该技术的推广与应用不仅潜藏着对艺术创作劳动价值的冲击,还可能加剧数字鸿沟,导致艺术领域的精英化趋势,从而引发一系列深层次的社会伦理问题。

        在艺术领域,创作一直被视为需要长期学习与实践的艰苦过程,它要求艺术家通过不断的练习与反思,深化对艺术本质的理解与把握。然而,AI绘画技术的出现似乎为这一过程提供了某种程度的替代,其快速生成与模仿的能力使得艺术创作的“低端劳动”似乎变得不再重要。这种技术导向的转变可能误导公众对艺术创作的认知,削弱艺术创作的劳动价值,进而对艺术发展产生深远的负面影响,特别是对于那些新进入艺术领域、尚未形成个人风格的创作者而言,他们可能更加倾向于依赖技术而非自身的实践与探索。

        艺术家是一个富有创造能力的群体,我们之后看到,他们在AI绘画彻底毁灭一个艺术性行业前迅速展开了“反击”—— Nightshade 利用生成式人工智能模型中的一个安全漏洞,即如若AI模型是从互联网上抓取的图像上进行训练的,用到它的这些训练数据可能会损害图像生成模型的未来迭代,使模型的一些输出结果变得错乱 —— “狗被误认成猫,汽车变成牛” 等等;从而帮助将权力天平从人工智能公司向艺术家倾斜。这就是最早针对于生成式绘画AI的对抗样本。对抗样本某些角度上是对传统的艺术创作者群体提供了一些反制手段,但这些行为对于AI技术人员来说,又何尝不是另一种无端的伤害呢?

        尽管有人主张技术能够作为艺术创作的辅助工具,为艺术家提供新的灵感与视角,但这种乐观的观点往往忽视了技术应用中的社会不平等问题。事实上,生成式绘画技术的使用门槛相对较高,它不仅要求用户具备一定的文化素养与技术能力,还需要相应的资本投入以获取高质量的工具与服务。这种情况导致信息弱势群体在享受技术带来的便利时处于不利地位,他们可能因缺乏必要的资源与支持而无法有效利用这些工具,从而加剧了社会中的数字鸿沟现象。

        随着技术的普及与应用,那些掌握先进技术与资本的精英群体可能更加容易地获取艺术资源与市场机会,从而形成新的阶层分化。如若继续忽视AI绘画中的社会伦理问题,其精英化趋势可能进一步拉大艺术领域内的社会距离。分化的结果,无非削弱了艺术作为社会批判与沟通桥梁的功能,还可能加剧社会的不平等与分化现象,使得艺术追求产生了更高的门槛,对于普通出身的艺术创造者变得更加遥不可及。

        总之,AI绘画技术所带来的社会伦理问题不容忽视。社会成员需要更加审慎地思考如何在推动技术创新的同时维护艺术创作的劳动价值、缩小数字鸿沟以及防范精英化风险。

        从传播伦理的角度来看,生成式AI绘画技术中存在的这些问题引发了对技术中立性的质疑。尽管机器本身并没有意图,但其在应用过程中所反映出的偏见和刻板印象却可能对社会产生深远影响。人们需要更加审慎地思考如何在使用这种技术,避免传播有害的刻板印象和视觉偏见。

        一个经典的案例是输入文字内容,我们希望人工智能以图像作为输出结果,产生对应内容的绘画图像。当输入某些具有社会敏感性的词汇时,如“贫瘠”,所生成的图像往往以深色人种为主。这种现象并非偶然,它揭示了其技术在处理图像生成时可能存在的隐性偏见。这种偏见可能来源于训练数据的不均衡,也可能反映了社会文化中普遍存在的刻板印象;当输入内容与“主流事件”相关时,AI绘画的输出结果往往受到传播属性的影响,从而强化了某些刻板印象。例如,在涉及社会冲突或政治事件的图像生成中,可能会倾向于展现与主流媒体报道相一致的视觉元素,从而忽略了事件的复杂性和多面性。这种倾向性不仅限制了技术的创意潜力,还可能加剧社会中的偏见和歧视。

        当下行之有效的方法则是在训练AI模型时,确保使用均衡且多样化的数据集,以减少模型对特定群体的偏见。同时笔者认为,引入多学科的知识和视角也尤为重要。社会学、心理学和传播学等社会科学的介入,可以帮助人工智能在迭代阶段更全面地顾及自身任务与社会之间的复杂关系。

        从伦理学的视角深入剖析,AI绘画技术所引发的道德和伦理困境的核心问题在于和人类之间的“失衡”。当机器在创造性活动中模仿甚至可能“剽窃”人类艺术家的独特风格时,艺术家的道德权利与信息技术进步之间形成了紧张的张力。同时,随着AI技术在多个领域的广泛渗透,其对于社会和文化话语的影响日益显著,文化符号在该技术的传播中出现了前所未有失衡现象。失衡现象不仅可能加剧已有的文化偏见和社会不平等,还可能对艺术创作生态产生深远的影响。艺术界对此类行为的深刻忧虑和反抗行为通过揭示人工智能模型的安全漏洞和训练数据的潜在问题,进一步凸显了生成式AI绘画技术在伦理层面的挑战。

        另一个传播伦理问题的角度则是涉及真实性审查:AI绘图的逼真图像可能被误导为是新闻报道。2022重庆山火灾害,有网络用户使用AI绘画生成的图像,这些图像纯属虚拟。虽然在发布初始便注明了来源于AI绘图,但在传播过程中还是被传为现场摄影,甚至一度出现在政府媒体的新闻报道中。这极大提高了传媒辨伪的成本,有可能引发更大的舆论争议。

        人类迫切需要在推动生成式绘画技术发展的同时,从伦理学的角度对其进行全面审视。这包括建立更加公正、透明的算法机制,以确保技术在处理涉及多元文化和敏感主题的内容时能够更加准确和负责任。加强对技术的监管和评估也至关重要,以防止其应用加剧社会不平等和文化冲突。正是有了伦理学的贡献,我们才能在未来确保生成式绘画技术在尊重艺术创作和价值多样性的基础上健康发展,为社会带来真正的福祉。

        总体而言,AIGC绘画技术的发展进程中,所引发的社会伦理问题和挑战呈现出多样性和复杂性。社会问题不仅涉及技术层面的优化与创新,更触及了文化、社会结构等多个维度,于是单一学科的视角和方法往往难以全面应对,人类也因此需要整合多学科的知识和资源,形成跨学科的研究与解决方案。跨学科的协作不仅有助于推动AI技术的健康发展,更能够深化我们对AI技术与社会环境相互作用的理解。

        这也正是社会科学在人工智能艺术发展中跨学科意义的核心所在。AI的进步不能仅仅依靠技术的推动,更需要人文和社会科学的参与和引导。社会科学为我们提供了一个宽广而深入的视角,让我们能够重新审视和理解技术与社会、文化、伦理等诸多领域的交织关系。通过工程伦理的视角,我们作为科技的实践者,更加希望建一个更加包容、可持续的AI发展环境。人类需要确保技术是在造福人类,尊重和保护人类社会的多元文化和价值观地得到发展。

[1]戴宏朵. 人工智能生成艺术的伦理反思 [D].江苏: 南京大学 4-6

[2]卢炳宏. 论人工智能生成物的著作权保 [D].吉林: 吉林大学

[3]赵睿智 李辉. AIGC背景下AI绘画对创意端的价值、困境及对策研究 [D]. 山东师范大学

[4]聂洪涛. 生成式人工智能绘画侵权的样态分析与规制路径 [D].《政府与法治》2023年第12期

总结

文章总结
随着生成式人工智能(AIGC)技术的飞速发展,尤其是在绘画艺术领域的应用,引发了一系列深刻的社会问题和伦理挑战。本文围绕《生成式AI绘画背景下的伦理问题》展开,探讨了AIGC技术在艺术创造中所面临的三大伦理问题——商业伦理、社会伦理和传播伦理,并提出了相应的解决方法。
从生成艺术走向AI绘画
生成式人工智能绘画作为技术与艺术的交汇点,通过网络、大数据和深度学习等新技术推动,已进入一个全新的发展阶段,但其带来的社会问题也不容忽视。AI绘画不仅挑战了传统的艺术创作方式,还引发了一系列版权、劳动价值、社会公正和传播真实性的复杂问题。
AI绘画的伦理问题
1. 商业伦理问题
AI绘画技术的出现,尤其是获奖作品《太空歌剧院》引发的社会争议,凸显了版权和知识产权的归属问题。现行法律框架在面对AI生成物时显得力不从心,迫切需要法学界重新审视和修订相关法律,以明确版权归属,保护创作者的权益。
2. 社会伦理问题
AI绘画技术可能削弱艺术创作的劳动价值,误导公众对艺术的认知。同时,该技术的高门槛可能加剧社会中的数字鸿沟和精英化趋势,进一步拉大人们对艺术创作权和享受艺术资源的差距。社会科学的研究需关注如何在技术进步同时维护艺术创作的核心价值和社会公正。
3. 传播伦理问题
AI绘画技术在传播过程中可能强化偏见和刻板印象,误导公众。虚假图像的传播也可能对社会造成负面影响。建立公正、透明的算法机制,引入多学科视角,加强真实性审查,是避免这些问题的关键环节。
跨学科的意义与应对
面对AI绘画技术引发的复杂伦理问题,需要整合多学科的知识和资源,形成跨学科的研究与解决方案。社会科学在提供伦理、哲学和社会支持方面具有不可替代的作用。通过跨学科协作,可以有效应对技术发展过程中的各种问题,建立包容、可持续的AI发展环境。
总结而言,生成式AI绘画技术在推动艺术创新的同时,也带来了一系列亟待解决的伦理难题。社会科学与技术的深度融合和跨学科研究将是应对这些问题的重要途径,共同促进AI绘画技术的健康发展。

伴随着ChatGPT的横空出世,一场史无前例的科技革命正在拉开序幕。

AI 拥有强大的信息储备和数据处理能力,无论是速度、质量,都让人只呼不得了!不止是写代码、造论文不在话下,甚至还能和你探讨茶叶和**战争的关系、人类的起源、生命的意义,这几天网传AI甚至在劝人离婚……

“上知天文下知地理”、“学富五车、才高八斗”、“博古通今”、“学贯中西”……这些最能彰显博学和智慧的形容词,显然已不足以形容AI的博学和智慧了。

而扎进艺术领域的AI,更是玩得不亦乐乎,有滋有味!

只需要输入一段文字描述、或者是上传一张图片,AI绘画软件就能为你快速生成一张绘画,水墨风、赛博朋克风、平面插画风、油画风、素描、工笔、漫画、末世废土风;抽象的、写意的、高写实的……应有尽有!

AI在崛起,各种AI绘画软件正在如雨后春笋般涌出。今天我们就来为大家分享18款国内外AI绘画工具。(排名不分先后)

这是OpenAI(人工智能研究公司)旗下的一个图片生成软件。

官网:https://openai.com/dall-e-2/

输入文字描述,就能快速生成一张AI创作的艺术画作;它还能根据你提供的原画作,拓展延伸画出画布外面的画面;还可以对原画作进行编辑,如在画面中添加/删除一个元素,同时兼顾阴影、反射、材质等;以原画作为灵感创造出新的作品;

滑动查看更多

这是一款由微软出品的AI绘画工具,支持生成任意尺寸、任意大小的高分辨率图像,以适配不同设备、平台和场景。

官网:https://nuwa-infinity.microsoft.com

可以对原画作进行延伸创作;可以将静态图片转换成动态的视频;可以根据文字描述创作出来高分辨率的图片。

这是一款由Midjourney 与 Spellbrush 合作推出的绘画工具 Nijijourney,专门生成二次元动漫风插画。

官网:https://nijijourney.com/zh/

目前正在内测阶段,大家可以去官网排队加入等候名单。

根据你输入的文字描述,生成相应的图片。

官网:https://stability.ai/

测试地址:https://beta.dreamstudio.ai/home

优点:方便功能强大,效果震撼、可以多次注册。缺点:图片需要手动保存,大图只支持1024

NovelAI,号称最强二次元生成AI工具,非常适合用于漫画创作。本来开发的目的是为了人工智能写小说用的,里面的绘画功能是用来给小说配图的。但目前这款附带的配图绘画功能非常受欢迎。

官网:https://novelai.net

新用户可免费体验,但是绘图功能需要成为付费会员才能体验。

文心一格是由百度公司推出的人工智能艺术和创意辅助平台。输入文字描述,即可生成不同风格的创意画作。

官网:https://yige.baidu.com/

这是一款搭载在 Discord 上的人工智能绘画聊天工具。画风是比较偏黑暗系的。

注:Discord 一款专为社群设计的免费通讯社交软件,类似于LINE或Slack。在Discord直接搜索Midjourney即可使用。

官网:https://www.midjourney.com/home/

滑动查看更多

国内团队出品,打开后直接可以使用。6pen支持中文,支持多种不同的绘画风格,在输入文字描述的同时,可以选择水墨画、油画、素描等风格,同时还可以选择仙境、赛博朋克、超现实等风格修饰。

官网:https://6pen.art/

这也是一个国外网站,输入文字描述,等待出图即可。

官网:https://creator.nightcafe.studio/

这是一个经过数百万张图像训练的神经网络。简单好用,通过在文本框内输入文字内容,选择想要的图片格式、风格等,点击生成。

官网:https://deepdreamgenerator.com/

这也是一款由谷歌推出的文本-图像生成工具,可以生成高保真、极具真实感的图像。

官网:https://parti.research.google/

这个网站,不需要注册即可在线使用,可以快速将你的文字描述转换成一些简单的图片。如果想要更多一些特殊风格的图片,需要成为会员。图片风格很多,包括油画、插画、赛博朋克之类的。

官网:

https://deepai.org/machine-learning-model/text2img

Fotor是一个类似于Canva的设计平台,支持生成多种设计,如海报、传单、封面图等。Fotor还开发了一些列的AI工具(AI图片生成、AI照片特效、AI脸部图片生成、AI艺术生成)。可以通过上传一张原图片、或是输入文字描述,来生成AI图片。目前旨在Fotor国际版的官网看到这项功能。

官网:https://www.fotor.com/features/ai-image-generator/

官网:https://starryai.com/

官网:https://runwayml.com/

这是即时设计的一款AI作画插件,用户只需要进入「即时设计」打开「即时 AI」,描述图片画面,再构建基础图形、控制颜色、调整布局后,AI 就能根据给出的信息,快速生成创作。

官网:https://js.design/AI-gallery

也是输入文字描述,然后生成AI画作。不过想必其他的AI作画工具,Pisco的画风更偏黑暗、赛博朋克、末世废土风格更强烈一些。

官网:https://picso.ai/

官网:https://dream.ai/

以上便是关于这18款AI绘画工具的详细介绍了。

AIGC技术的未来发展前景广阔,随着人工智能技术的不断发展,AIGC技术也将不断提高。未来,AIGC技术将在游戏和计算领域得到更广泛的应用,使游戏和计算系统具有更高效、更智能、更灵活的特性。同时,AIGC技术也将与人工智能技术紧密结合,在更多的领域得到广泛应用,对程序员来说影响至关重要。未来,AIGC技术将继续得到提高,同时也将与人工智能技术紧密结合,在更多的领域得到广泛应用。

感兴趣的小伙伴,赠送全套AIGC学习资料和安装工具,包含AI绘画、AI人工智能等前沿科技教程,模型插件,具体看下方。

AIGC所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照下面的知识点去找对应的学习资源,保证自己学得较为全面。

工具都帮大家整理好了,安装就可直接上手!

当我学到一定基础,有自己的理解能力的时候,会去阅读一些前辈整理的书籍或者手写的笔记资料,这些笔记详细记载了他们对一些技术点的理解,这些理解是比较独到,可以学到不一样的思路。

观看全面零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。

纸上得来终觉浅,要学会跟着视频一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

这份完整版的AIGC全套学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【】

总结

文章总结:AI引领科技与艺术革命,探索18款AI绘画工具及AIGC未来
AI崛起,科技革命启幕
随着ChatGPT等AI技术的突飞猛进,一场前所未有的科技革命席卷全球。AI不仅展现出惊人的信息处理与学习能力,覆盖代码编写、论文生成,甚至涉足哲学讨论与人生指导,其博学多才已超越传统定义,深入艺术领域,玩味十足。
AI艺术的盛宴
AI绘画软件如雨后春笋般涌现,仅通过文字描绘或图片上传,即可生成风格多变的艺术作品,涵盖水墨、赛博朋克、油画等各类风格。这种科学与美的融合,极大地丰富了艺术创作的形式与边界。
18款精选AI绘画工具概览
本文为您精选了国内外18款领先的AI绘画工具,包括:
- DALL·E 2:OpenAI旗下,依据文字描述生成画作,支持原画编辑与拓展。
- NUWA:微软出品,支持高分辨率图像生成,动静结合,创意无限。
- Nijijourney:Midjourney与Spellbrush合推的二次元插画神器,虽在内测,潜力巨大。
- Stability.Ai与Novel AI:前者便捷功能全面,后者专注二次元,助力漫画创作。
- 文心一格:百度推出,融合中式美学,创意画作随手可得。
- Midjourney、6pen art、NightCafe Creator等各具特色,满足不同风格需求。
- Parti、DeepAI由科技巨擘打造,生成图像高逼真,为创作增添无限可能。
- 即时设计AI作画、Pisco、Dream AI等则侧重于插件化、便捷化体验,让创意一触即发。
AIGC技术的广阔前景
展望未来,AIGC技术将在游戏、计算等领域深度渗透,提升系统的智能性与灵活性。同时,它将与人工智能技术深度融合,在更多领域内发挥重要作用,对程序员及创作者而言,既是机遇也是挑战。
学习资源与工具整理
为帮助广大学习者深入掌握AIGC技术,特整理了一系列完整学习资料和工具包,涵盖学习路线、必备工具、学习笔记、视频教程及实战案例,全方位助力您探索AI艺术的无限魅力。扫描二维码即可免费获取(保证100%免费)。
结语
AI正以前所未有的速度改变着我们的世界,艺术与科技的深度融合,正开启一个全新的创意纪元。让我们携手并进,在这个充满无限可能的未来中,共同见证并创造更多奇迹。

目录

生命周期

1. 小程序运行机制

2. 小程序更新机制

3. 生命周期介绍

4. 应用级别生命周期

5. 页面级别生命周期

6. 生命周期两个细节补充说明

7. 组件生命周期

总结 

1. 小程序运行机制

冷启动与热启动:

小程序启动可以分为两种情况,一种是冷启动,一种是热启动

冷启动:如果用户首次打开,或小程序销毁后被用户再次打开,此时小程序需要重新加载启动

热启动:如果用户已经打开过某小程序,然后在一定时间内再次打开该小程序,此时小程序并未被销毁,只是从后台状态进入前台状态

前台 以及 后台状态:

小程序启动后,界面被展示给用户,此时小程序处于「前台」状态。

当用户「关闭」小程序时,小程序并没有真正被关闭,而是进入了「后台」状态,当用户再次进入微信并打开小程序,小程序又会重新进入「前台」状态

切后台的方式包括但不限于以下几种:

点击右上角胶囊按钮离开小程序 安卓点击返回键离开小程序 屏幕左侧右滑离开小程序

挂起:

小程序进入「后台」状态一段时间后(5 秒),微信停止小程序 JS 线程执行,小程序进入「挂起」状态,当开发者使用了后台播放音乐、后台地理位置等能力时,小程序可以在后台持续运行,不会进入到挂起状态

销毁:

如果用户很久没有使用小程序,或者系统资源紧张,小程序会被销毁,即完全终止运行。

当小程序进入后台并被「挂起」后,如果很长时间(目前是 30 分钟)都未再次进入前台,小程序会被销毁

当小程序占用系统资源过高,可能会被系统销毁或被微信客户端主动回收。

2. 小程序更新机制

在访问小程序时,微信会将小程序代码包缓存到本地。

开发者在发布了新的小程序版本以后,微信客户端会检查本地缓存的小程序有没有新版本,并进行小程序代码包的更新。

小程序的更新机制有两种:启动时同步更新 和 启动时异步更新

启动时异步更新

启动时同步更新:微信运行时,会定期检查最近使用的小程序是否有更新。如果有更新,下次小程序启动时会同步进行更新,更新到最新版本后再打开小程序。如果 用户长时间未使用小程序时,会强制同步检查版本更新

启动时异步更新

启动时异步更新:在启动前没有发现更新,小程序每次 冷启动 时,都会异步检查是否有更新版本。如果发现有新版本,将会异步下载新版本的代码包,将新版本的小程序在下一次冷启动进行使用,当前访问使用的依然是本地的旧版本代码

在启动时异步更新的情况下,如果开发者希望立刻进行版本更新,可以使用 wx.getUpdateManager API 进行处理。在有新版本时提示用户重启小程序更新新版本。

讯享网
 

落地代码:

讯享网
 

3. 生命周期介绍

应用生命周期是指应用程序进程从创建到消亡的整个过程

小程序的生命周期指的是 小程序从启动到销毁的整个过程

在打开一个小程序应用的时候都需要经历一系列的初始化步骤,比如页面是否加载完成、页面是否初次渲染完成等等。

在此过程中,小程序也会运行被称为生命周期钩子的函数,这些函数由小程序框架本身提供,被称为生命周期函数,生命周期函数会按照顺序依次自动触发调用。帮助程序员在特定的时机执行特定的操作,辅助程序员完成一些比较复杂的逻辑。让开发者有机会在特定阶段运行自己的代码。

小程序的生命周期分类三类:应用级别、页面级别和组件级别 3 种类型,我们先学习应用级别和页面级别的生命周期

4. 应用级别生命周期

知识点:

应用生命周期通常是指一个小程序从 启动 → 运行 → 销毁的整个过程

应用生命周期伴随着一些函数,我们称为 应用生命周期函数,应用生命周期函数需要 在 app.js 文件的 App() 方法中定义

当整个小程序应用运行到某个时机的时候,我们需要做一些事情。例如:当小程序启动成功之后,我们要获取小程序的一些信息,就可以在小程序启动成功时的钩子函数中写代码获取我们想要的信息。

生命周期 必填 说明 onLaunch 否 监听小程序初始化,全局只会执行 1 次 onShow 否 监听小程序启动或切前台 onHide 否 监听小程序切后台

📌 注意事项:

从小程序生命周期的角度来看,我们一般讲的「启动」专指冷启动,热启动一般被称为后台切前台。

App() 必须在  中调用,必须调用且只能调用一次。不然会出现无法预期的后果。

小程序启动后,后台会首先完成小程序的初始化,该过程只会触发一次;之后会完成显示的工作,用户可以操作小程序从前台进入后台以及从后台回复到前台显示;小程序在后台运行一段时间,当系统资源不足时会被注销。

落地代码:

讯享网

5. 页面级别生命周期

知识点:

页面生命周期就是指小程序页面从 加载 → 运行 → 销毁的整个过程

当某个页面运行到某个时机的时候,我们需要做一些事情,例如: 当某个页面加载完毕之后,需要发请求获取当前页面所需的数据,就可以在对应的页面加载完成后的钩子函数中执行发送请求的代码。

小程序中的一个页面都需要在对应页面的  文件中调用  方法来注册。 接受一个  类型参数,其指定页面的初始数据、生命周期回调、事件处理函数等。

生命周期 必填 说明 onLoad 否 页面加载时触发 (一个页面只会调用一次) onShow 否 页面显示时触发,页面显示/切入前台时触发 onReady 否 页面初次渲染完成时触发(一个页面只会调用一次)
代表页面已经准备妥当,可以和视图层进行交互 onHide 否 页面隐藏/切入后台时触发 onUnload 否 页面卸载时触发

落地代码:

 

6. 生命周期两个细节补充说明

tabBar 页面之间相互切换,页面不会被销毁

点击左上角,返回上一个页面,会销毁当前页面(被打开页面)

7. 组件生命周期

(1)created()组件实例被创建时触发 (2)attached()组件被添加到页面节点树中时触发 (3)ready()组件初次渲染完成时触发 (4)moved()组件被移动到新的节点位置时触发 (5)detached()组件被从页面节点树中移除时触发

此外,自定义组件还有一些特殊的生命周期方法:

lifetimes:用于替代原有的生命周期方法。lifetimes 中可以定义 created、attached、ready、moved、detached 等方法,它们与上述对应的生命周期方法具有相同的功能。

pageLifetimes:用于监听组件所在页面的生命周期。可以定义 show(页面展示时触发)、hide(页面隐藏时触发)等方法,这些方法可以在组件中通过 this.triggerEvent 主动触发。

讯享网

想一下加载一个页面(包含组件)的加载顺序,按照直觉小程序加载顺序应该是这样的加载顺序(以下列子中都是同步组件):

首先执行  -&gt; 

其次执行  -&gt; 

再执行  -&gt; 

最后 执行  -&gt; 

可以看到,在页面之前会有页面阶段,这其中就包含了组件的初始化,等组件初始化完成之后,才会执行页面的, 之后页面事件也是在组件之后才触发的。

下面我们来看看 Behavior,  与 中的  类似,猜想下其中的执行顺序:

Behavior.created =&gt; Component.created

测试下来和预期相符,其实在的文档中有一段这样的描述:

另外,混入对象的钩子将在组件自身钩子之前调用。

这样的设计和主流设计保持一致。接下来我们看看 pageLifetimes,有和生命周期对应页面的展示与隐藏,预期的执行顺序:

pageLifetime.show =&gt; Page.onShow

测试下来也和预期相符,那么我们可以推断出如下的结论:

当页面中包含组件时,组件的生命周期(包括pageLifetimes)总是优先于页面,生命周期优先于组件的生命周期。但其实有个例外:页面退出堆栈,当页面时会执行如下顺序:

Page.onUnload =&gt; Component.detached

看了以上的分析你应该知道了答案,最后做个总结

总结

本文详细介绍了小程序的生命周期,包括其运行机制、更新机制以及生命周期的各个层面细节。文章主要从以下几个方面进行了阐述:
小程序运行机制
1. 冷启动与热启动:小程序冷启动需重新加载,热启动则是从后台直接进入前台。
2. 前台与后台状态:小程序在未完全退出时会进入后台状态,在一定时间内可以恢复到前台。
3. 挂起与销毁:小程序在后台超过一定时间(5秒)后进入挂起,长时间(30分钟)无交互或占用资源过高会被销毁。
小程序更新机制
1. 启动时同步更新:定期检查更新,下次启动时自动更新为最新版本。
2. 启动时异步更新:冷启动时检查更新,新版本将在下次启动前下载生效,或者使用`wx.getUpdateManager`API提示用户立即更新。
生命周期介绍
1. 应用级别生命周期:包括`onLaunch`(全局只触发一次)、`onShow`(应用启动或回到前台显示)、`onHide`(应用进入后台)等生命周期函数,定义在`app.js`的`App()`方法中。

2. 页面级别生命周期:从页面加载开始(`onLoad`),到初次渲染完成(`onReady`),再到显示、隐藏和卸载的不同阶段。
生命周期细节补充说明
1. tabBar切换不销毁页面:tabBar页面互相切换时,不会对页面进行销毁。
2. 页面返回销毁机制:通过返回键返回上个页面,会销毁当前页面。
组件生命周期
1. 自定义组件生命周期:包括`created`(组件创建)、`attached`(添加到节点树)、`ready`(初次渲染完成)、`moved`(位置移动)和`detached`(移除节点树)等阶段。
2. lifetimes 与 pageLifetimes:`lifetimes`用于定义组件自身生命周期方法,`pageLifetimes`用于监听所在页面的生命周期变化。
总结
- 小程序加载顺序:首先执行应用级别的`onLaunch`和`onShow`,然后是组件的`created`和`attached`,接着是页面的`onLoad`、`onShow`,最后是组件的`ready`和页面的`onReady`。
- `Behaviors`的生命周期先于组件生命周期执行,但页面的卸载则是在组件卸载之后进行。
这样的生命周期管理,增强了小程序对资源的管理能力,提高了用户体验,并允许开发者在特定阶段执行必要的代码逻辑。

Figure.AI联合创始人Brett Adcock宣布,将于8月6日(大约北京时间周二凌晨左右)发布Figure02型号。

Brett没有过多的介绍Figure02新功能和技术特性,只放出了一句狠话——这将是地球最强的人形机器人。

从Figure01的表现来看,02应该也会相当惊艳,预计将会把OpenAI最新发布的GPT-4o等多模态大模型继续集成在其中,打造能推理、看、听、说的人形实体ChatGPT机器人。

很快就有人好奇,这与特斯拉的Optimus以及波士顿动力的新Atlas相比如何,这两家都是Figure的主要竞争对手。

也有人希望Figure01和02版本,可以在无需预设编辑的情况下,自动执行各种生活场景。这不就是通用实体机器人了嘛,估计还需要一段时间。

有一位专家指出,与01相比,02代最大的改变可能是在灵巧度方面。这也是实体机器人最难攻破的领域。

这实体机器人越来越聪明,估计很快就没人类啥事了吧~

早在今年3月9日,Figure.AI放出了集成OpenAI大模型,具备多模态推理的人形机器人Figure01展示视频,当时在全球科技圈引起不小的轰动,将威尔斯密斯主演的科幻电影《机器公敌》终于变成了现实。

在演示视频中,他们首先让机器人识别了眼前的苹果、杯子、盘子等物品,然后它把一个苹果递给了人类,并要求解释为什么这么做。

Figure01表示,篮子里有很多垃圾和苹果,只有苹果才是能吃的,所以把这个递给了人类。

这一点与传统的执行固定命令的机器人有很大不同,因为它具备了初级思考、推理的能力,也就是说大模型已经成为了它的大脑。在执行更复杂的业务上,例如,在一个超大的仓库中找出特定的货物有很大的帮助。

公开资料显示,Figure.AI创立于2022年,总部位于旧金山湾区,曾在今年2月29日获得6.75亿美元巨额融资,估值达到26亿美元成为行业独角兽。

而OpenAI是主要投资者之一,同时宣布将其GPT系列大模型集成在Figure.AI的实体机器人当中。

Figure01机器人身高为5英尺6英寸,重量60千克,能够持续工作5小时,移动速度达到1.2米/秒,动力系统为电动。拥有类似于人类的手臂、腿部和手部结构,能够上下楼梯和搬运重达20千克的货物。

同时得到大模型增强后的Figure01,在理解语言、命令执行、周围环境感知方面获得了巨大提升,能够在复杂环境中移动、避开障碍物、搬运货物等。

目前,宝马已经与Figure.AI签署了合作协议,将在实际业务中使用Figure系列实体机器人。

总结

文章总结
Figure.AI公司创始人Brett Adcock宣布,将于8月6日(北京时间周二凌晨)发布最新型号的图灵人形机器人Figure02,号称这是地球上最强的人形机器人。虽然Brett未具体透露Figure02的新功能和技术特性,但基于Figure01的出色表现,预计Figure02将继续集成OpenAI最新的多模态大模型如GPT-4o,进一步增强推理、视觉识别、语音交互等能力,使其成为更加强大和智能的实体ChatGPT机器人。
Figure01的高度智能化和多模态能力已经在科技界引起轰动,成为将科幻变为现实的代表。它通过识别、推理和执行力展示了与传统机器人截然不同的能力,能够在复杂环境中完成更复杂的任务。Figure01的成功让市场对其继任者Figure02充满期待,特别是对其在灵巧度方面可能的突破。
Figure.AI作为一家成立不久的独角兽企业,已获得大量投资,其中包括来自OpenAI的直接投资和技术支持。公司的实体机器人以其高度智能化和实用性吸引了多个行业的关注,如宝马等知名企业已与其签署合作协议,计划将Figure系列机器人应用于实际业务中。
总体而言,Figure.AI和其在人形机器人领域的持续创新,正在推动着实体机器人技术向更高级别迈进,使得科幻电影中的场景逐步成为现实。随着Figure02的发布,我们对未来人形机器人的能力和应用前景充满了更多期待。




























































































































































































































































































































小讯
上一篇 2025-05-06 15:37
下一篇 2025-04-30 13:16

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/136383.html