ios
GCG Journey(二):从方法谱系到实战消融

副标题:把 GCG 变体拉回同一条搜索链路里,看哪些改动真的改变实验结果。

第一篇已经把 GCG 的最小主干拆开了:candidate proposal、target loss evaluation、greedy update。这里继续往前走一步,把 2024–2026 年围绕 GCG 展开的几条工作线放到同一个实验框架里。

这篇文章不会写成方法名字列表。真正要回答的是:这些 GCG 变体到底改了哪一环?改完以后,是降低了计算成本,还是改变了优化目标,或者只是换了一套评估方式?

GCG method family map
Figure 1: GCG 方法家族可以统一看成对 proposal、objective、forward evaluation、update 和 success evaluation 的不同改造。
GCG Journey(一):从对抗样本到后缀搜索

想写这个系列很久了从2024完成了部分内容,但一直没有时间梳理。乘着假期完善这个系列

为什么给 prompt 拼接一段 suffix,就可能改变模型输出?这个 suffix 又是怎么被搜索出来的?这一章会按五个阶段推进并解答这些疑问。
从 CV 对抗样本抽出“输入侧扰动”这个共同结构,再把它迁移到 LLM 的 adversarial suffix;接着用 GCG-random 跑通最小搜索链路,然后进入梯度版 GCG;最后再讨论 full vocab、batch sampling、retokenization filter、generate 判定和吞吐优化这些优化策略的实现边界。

GCG Journey chapter roadmap
Figure 0: 第一章路线图。主线是先理解后缀搜索的结构,再逐步替换候选生成与优化策略。
Reinforcement Learning Note

Q-Learning

原理

课程参考:https://www.bilibili.com/video/BV13W411Y75P

Q-Learning是属于值函数近似算法中,蒙特卡洛方法和时间差分法相结合的算法。这种算法使得智能体(agent)能够在与环境互动的过程中学习如何采取动作以最大化累积奖励。Q-learning特别适用于解决决策过程问题,尤其是那些状态和动作空间定义明确的问题。

Q-Learning 是一个离线策略(off-policy)学习算法。在Q-Learning中,智能体学习的是一个与其实际执行动作无关的优化策略。也就是说,当它在探索更多的状态-动作对时,它学习的是最优策略。同时,在更新q-table中的值时,并不考虑下一步实际执行的动作是什么,而是假设采取的是让next_state下q-table值最大的动作。

乔姆斯基生成语法分析笔记

常见短语

短语缩写 构成 例子 中文名称
NP NP->NN 武器 名词短语
DP D+NP 那书 限定词短语
AP ADJ+NP 干净的水 形容词短语
AP ADV+ADJP 很晚 副词短语
VP V+DP 读书 动词短语
PP P+DP 在桌子上 介词短语
ConJP DP+Conj+DP 一支笔和一本书 并列结构连词短语
S(IP) DP+VP 句子/通常会用TP代替IP带时态
IP D+I+V+D+N
代词 + 动词 + 曲折变化 + 代词 + 名词
句子/其中I 指曲折变化
CVE-2023-21608

Shellcode 分析

目的

为了改造该 exp 为远程命令执行,还需要对 shellcode 进行修改

前置知识

PEB

内容引用自 x32 PEB: 获取 Kernel32 基地址的原理及实现 - 先知社区

TEB(Thread Environment Block,线程环境块)系统在此 TEB 中保存频繁使用的线程相关的数据。位于用户地址空间,在比 PEB 所在地址低的地方。用户模式下,当前线程的 TEB 位于独立的 4KB 段(页),可通过 CPU 的 FS 寄存器来访问该段,一般存储在[FS:0]