@@ -13,33 +13,33 @@ def __init__(self, spec):
13
13
spec = parsing .Spec (a )
14
14
15
15
parser = TestParser (spec )
16
- parser .token (a .TokenId (parser ))
17
- parser .token (a .TokenStar (parser ))
18
- parser .token (a .TokenId (parser ))
19
- parser .token (a .TokenPlus (parser ))
20
- parser .token (a .TokenId (parser ))
16
+ parser .token (a .TokenId ())
17
+ parser .token (a .TokenStar ())
18
+ parser .token (a .TokenId ())
19
+ parser .token (a .TokenPlus ())
20
+ parser .token (a .TokenId ())
21
21
parser .eoi ()
22
22
self .assertEqual (len (parser .start ), 1 )
23
23
self .assertEqual (parser .start [0 ].val , "[[ID * ID] + ID]" )
24
24
25
25
parser = TestParser (spec )
26
- parser .token (a .TokenId (parser ))
27
- parser .token (a .TokenPlus (parser ))
28
- parser .token (a .TokenId (parser ))
29
- parser .token (a .TokenStar (parser ))
30
- parser .token (a .TokenId (parser ))
26
+ parser .token (a .TokenId ())
27
+ parser .token (a .TokenPlus ())
28
+ parser .token (a .TokenId ())
29
+ parser .token (a .TokenStar ())
30
+ parser .token (a .TokenId ())
31
31
parser .eoi ()
32
32
self .assertEqual (len (parser .start ), 1 )
33
33
self .assertEqual (parser .start [0 ].val , "[ID + [ID * ID]]" )
34
34
35
35
parser = TestParser (spec )
36
- parser .token (a .TokenId (parser ))
37
- parser .token (a .TokenStar (parser ))
38
- parser .token (a .TokenLparen (parser ))
39
- parser .token (a .TokenId (parser ))
40
- parser .token (a .TokenPlus (parser ))
41
- parser .token (a .TokenId (parser ))
42
- parser .token (a .TokenRparen (parser ))
36
+ parser .token (a .TokenId ())
37
+ parser .token (a .TokenStar ())
38
+ parser .token (a .TokenLparen ())
39
+ parser .token (a .TokenId ())
40
+ parser .token (a .TokenPlus ())
41
+ parser .token (a .TokenId ())
42
+ parser .token (a .TokenRparen ())
43
43
parser .eoi ()
44
44
self .assertEqual (len (parser .start ), 1 )
45
45
self .assertEqual (parser .start [0 ].val , "[ID * ([ID + ID])]" )
@@ -54,33 +54,33 @@ def __init__(self, spec):
54
54
spec = parsing .Spec (b , skinny = False )
55
55
56
56
parser = TestParser (spec )
57
- parser .token (b .id (parser ))
58
- parser .token (b .star (parser ))
59
- parser .token (b .id (parser ))
60
- parser .token (b .plus (parser ))
61
- parser .token (b .id (parser ))
57
+ parser .token (b .id ())
58
+ parser .token (b .star ())
59
+ parser .token (b .id ())
60
+ parser .token (b .plus ())
61
+ parser .token (b .id ())
62
62
parser .eoi ()
63
63
self .assertEqual (len (parser .start ), 1 )
64
64
self .assertEqual (parser .start [0 ].val , "[[ID * ID] + ID]" )
65
65
66
66
parser = TestParser (spec )
67
- parser .token (b .id (parser ))
68
- parser .token (b .plus (parser ))
69
- parser .token (b .id (parser ))
70
- parser .token (b .star (parser ))
71
- parser .token (b .id (parser ))
67
+ parser .token (b .id ())
68
+ parser .token (b .plus ())
69
+ parser .token (b .id ())
70
+ parser .token (b .star ())
71
+ parser .token (b .id ())
72
72
parser .eoi ()
73
73
self .assertEqual (len (parser .start ), 1 )
74
74
self .assertEqual (parser .start [0 ].val , "[ID + [ID * ID]]" )
75
75
76
76
parser = TestParser (spec )
77
- parser .token (b .id (parser ))
78
- parser .token (b .star (parser ))
79
- parser .token (b .lparen (parser ))
80
- parser .token (b .id (parser ))
81
- parser .token (b .plus (parser ))
82
- parser .token (b .id (parser ))
83
- parser .token (b .rparen (parser ))
77
+ parser .token (b .id ())
78
+ parser .token (b .star ())
79
+ parser .token (b .lparen ())
80
+ parser .token (b .id ())
81
+ parser .token (b .plus ())
82
+ parser .token (b .id ())
83
+ parser .token (b .rparen ())
84
84
parser .eoi ()
85
85
self .assertEqual (len (parser .start ), 1 )
86
86
self .assertEqual (parser .start [0 ].val , "[ID * ([ID + ID])]" )
@@ -95,13 +95,13 @@ def __init__(self, spec):
95
95
spec = parsing .Spec (d , skinny = False )
96
96
97
97
parser = TestParser (spec )
98
- parser .token (d .id (parser ))
99
- parser .token (d .star (parser ))
100
- parser .token (d .id (parser ))
101
- parser .token (d .plus (parser ))
102
- parser .token (d .id (parser ))
103
- parser .token (d .star (parser ))
104
- parser .token (d .id (parser ))
98
+ parser .token (d .id ())
99
+ parser .token (d .star ())
100
+ parser .token (d .id ())
101
+ parser .token (d .plus ())
102
+ parser .token (d .id ())
103
+ parser .token (d .star ())
104
+ parser .token (d .id ())
105
105
parser .eoi ()
106
106
107
107
self .assertEqual (len (parser .start ), 1 )
@@ -117,11 +117,11 @@ def __init__(self, spec):
117
117
spec = parsing .Spec (h , skinny = False )
118
118
119
119
parser = TestGlrParser (spec )
120
- parser .token (h .TokenI (parser ))
121
- parser .token (h .TokenPlus (parser ))
122
- parser .token (h .TokenI (parser ))
123
- parser .token (h .TokenStar (parser ))
124
- parser .token (h .TokenI (parser ))
120
+ parser .token (h .TokenI ())
121
+ parser .token (h .TokenPlus ())
122
+ parser .token (h .TokenI ())
123
+ parser .token (h .TokenStar ())
124
+ parser .token (h .TokenI ())
125
125
parser .eoi ()
126
126
self .assertEqual (len (parser .start ), 1 )
127
127
self .assertEqual (repr (parser .start [0 ]), "(i + (i * i))" )
@@ -149,11 +149,11 @@ def __init__(self, spec):
149
149
spec2 = pickle .loads (specPickle )
150
150
151
151
parser = TestGlrParser (spec2 )
152
- parser .token (b .id (parser ))
153
- parser .token (b .star (parser ))
154
- parser .token (b .id (parser ))
155
- parser .token (b .plus (parser ))
156
- parser .token (b .id (parser ))
152
+ parser .token (b .id ())
153
+ parser .token (b .star ())
154
+ parser .token (b .id ())
155
+ parser .token (b .plus ())
156
+ parser .token (b .id ())
157
157
parser .eoi ()
158
158
self .assertEqual (len (parser .start ), 1 )
159
159
self .assertEqual (parser .start [0 ].val , "[[ID * ID] + ID]" )
0 commit comments