热门问题
时间线
聊天
视角
JAX
来自维基百科,自由的百科全书
Remove ads
JAX,是用于变换数值函数的Python机器学习框架,它由Google开发并具有来自Nvidia的一些贡献[4][5][6]。它结合了修改版本的Autograd(自动通过函数的微分获得其梯度函数)[7],和OpenXLA的XLA(加速线性代数)[8]。它被设计为尽可能的遵从NumPy的结构和工作流程,并协同工作于各种现存的框架如TensorFlow和PyTorch[9][10]。
Remove ads
主要功能
JAX的主要功能是[4]:
- grad:自动微分,
- jit:即时编译,
- vmap:自动向量化,
- pmap:SPMD编程。
grad
下面的代码演示grad
函数的自动微分。
# 导入库
from jax import grad
import jax.numpy as jnp
# 定义logistic函数
def logistic(x):
return jnp.exp(x) / (jnp.exp(x) + 1)
# 获得logistic函数的梯度函数
grad_logistic = grad(logistic)
# 求值logistic函数在x = 1处的梯度
grad_log_out = grad_logistic(1.0)
print(grad_log_out)
最终的输出为:
0.19661194
jit
下面的代码演示jit
函数的优化。
# 导入库
from jax import jit
import jax.numpy as jnp
# 定义cube函数
def cube(x):
return x * x * x
# 生成数据
x = jnp.ones((10000, 10000))
# 创建cube函数的jit版本
jit_cube = jit(cube)
# 应用cube函数和jit_cube函数于相同数据来比较其速度
cube(x)
jit_cube(x)
可见jit_cube
的运行时间显著的短于cube
。
vmap
下面的代码展示vmap
函数的通过SIMD的向量化。
# 导入库
from functools import partial
from jax import vmap
import jax.numpy as jnp
# 定义函数
def grads(self, inputs):
in_grad_partial = partial(self._net_grads, self._net_params)
grad_vmap = vmap(in_grad_partial)
rich_grads = grad_vmap(inputs)
flat_grads = np.asarray(self._flatten_batch(rich_grads))
assert flat_grads.ndim == 2 and flat_grads.shape[0] == inputs.shape[0]
return flat_grads
Remove ads
pmap
下面的代码展示pmap
函数的对矩阵乘法的并行化。
# 从JAX导入pmap和random;导入JAX NumPy
from jax import pmap, random
import jax.numpy as jnp
# 生成2个维度为5000 x 6000的随机数矩阵,每设备一个
random_keys = random.split(random.PRNGKey(0), 2)
matrices = pmap(lambda key: random.normal(key, (5000, 6000)))(random_keys)
# 没有数据传输,并行的在每个CPU/GPU上进行局部矩阵乘法
outputs = pmap(lambda x: jnp.dot(x, x.T))(matrices)
# 没有数据传输,并行的在每个CPU/GPU上分别求取这两个矩阵的均值
means = pmap(jnp.mean)(outputs)
print(means)
最终的输出为:
[1.1566595 1.1805978]
Remove ads
使用JAX的库
一些Python库使用JAX作为后端,这包括:
- Flax,最初由Google Brain开发的高层人工神经网络库[11]。
- Equinox,将参数化函数(包括人工神经网络)表示为PyTree的库。它由Patrick Kidger创建[12]。
- Diffrax,用于求微分方程的数值解的库,比如解常微分方程和随机微分方程[13]。
- Optax,DeepMind开发的用于梯度处理和最优化的库[14]。
- Lineax,用于解线性方程组和线性最小二乘法[15]。
- RLax,DeepMind开发的用于强化学习的库[16]
- jraph,DeepMind开发的图神经网络库[17]。
- jaxtyping,用于为阵列或张量的形状和数据类型增加类型标注的库[18]。
- NumPyro,概率编程库[19]。
- Brax,物理引擎[20]。
Remove ads
参见
引用
外部链接
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads