Bookshelf 📖

Readings: French schwa and gradient cumulativity

My thoughts

My Questions

  1. What’s a singleton?
    • 在这篇文章的语境里,singleton 指“单辅音”(single consonant)。对比的是“cluster”(辅音连缀/辅音簇)。 - 比如: - C_ 表示 schwa 前面只有一个辅音(singleton)。 - CC_ 表示 schwa 前面有两个辅音(一个辅音簇,如 /st/、/kt/ 等)。
  2. Sublinear, linear and superlinear 这个是什么意思?
    • 这三个词描述“当两个约束共同起作用时,累加到概率上的总效果”与“每个约束单独起作用时的效果”之间的对比关系。
    • 设想有两个有利于出现 schwa 的约束 A 和 B:
      • A 单独出现时把概率提高了 ΔA;
      • B 单独出现时把概率提高了 ΔB;
      • A 和 B 同时出现时把概率提高了 ΔA|B(也可看成从只存在 B 的环境再加上 A 后的增量,或反之)。 - 定义: - 次线性(sublinear):ΔA|B < ΔA(在另一约束存在的“累加”情境里,A 的边际效果更弱)。
    • 含义:当 B 已经把概率推高到 0.40 后,再加 A 的“边际提升”变小了(从 0.30 变 0.20)。这就是“次线性”。 - 线性(linear):ΔA|B = ΔA(边际效果与单独时相同,等加成)。
    • 含义:A 的效果不因 B 的存在而改变,恰好“等加成”。 - 超线性(superlinear):ΔA|B > ΔA(两个约束一起时,边际效果更强,产生“1+1>2”的增强)。
    • 含义:在 B 已经存在时,再加 A 的“边际提升”反而更大(从 0.15 变 0.30),两个约束一起“相互增强”,产生 1+1>2 的感觉,这就是“超线性”。 - 有两个有利因素/约束:A(比如“避免辅音三连”)和 B(比如“避免重音冲突”)。
    • 我们比较三种情境下的“概率提升量”(增量):
      • 只有 A 起作用时,概率从基线 P0 提升到 P(A);增量 ΔA = P(A) − P0
      • 只有 B 起作用时,概率从 P0 提升到 P(B);增量 ΔB = P(B) − P0
      • A 和 B 一起起作用时,概率从 P0 提升到 P(A+B);但为了看“在已有 B 的情况下再加 A 的边际效果”,我们比较 P(A+B) 与 P(B) 的差:ΔA B = P(A+B) − P(B)
      • 这三个量里,关键比较的是“ΔA B”和“ΔA”。也就是:当 B 已经在起作用时,再加 A 的效果,是否比 A 单独起作用时更弱/一样/更强。
  1. cumulative是什么意思?
    • cumulative 在这里指“累加性的、可叠加的”互动。具体到音系学,就是多个约束(比如“避免辅音三连”、 “避免重音冲突”)同时相关时,它们对输出形式(这里是 schwa 是否出现)的影响会“合起来”起作用,而不是彼此互不相干或被简单遮蔽。
    • 文中说的“gradient cumulativity(梯度式累加性)”强调这种累加是“概率大小上的差异”,不是全或无的范畴式对立;并且累加的强度可以是次线性、线性或超线性的。
  2. 2 × 2 × 2 factorial design, what’s the eight conditions?
    • *CCC 2 contex
    • deletion and ethpesis
    • stress 2 contex

Summary

Aim of this paper

Screenshot 2025-08-31 at 11 35 04

Introduction

Schwa epenthesis and deletion

The cluster factor

Screenshot 2025-08-31 at 13 14 41

The stress factor

Screenshot 2025-08-31 at 13 16 27

Method

Screenshot 2025-08-31 at 13 36 56

3.3 Results

Screenshot 2025-08-31 at 13 46 26

4 Presentation of modeling results

Screenshot 2025-08-31 at 13 48 24

4.1.3 Sublinearity through superlinearity in MaxEnt and Noisy HG

Screenshot 2025-08-31 at 15 23 55

Screenshot 2025-08-31 at 15 24 07

4.2 Models fitted to French data

Screenshot 2025-08-31 at 15 34 45

Screenshot 2025-08-31 at 15 35 43 Screenshot 2025-08-31 at 15 40 16

Predictions and directions for future work

Conclusion