fix tests failing because of merged paren tokens
This commit is contained in:
parent
230bca6b1b
commit
d2072604f3
6 changed files with 23 additions and 29 deletions
|
|
@ -65,7 +65,7 @@ module.exports = {
|
|||
var tokens = this.tokenizer.getLineTokens("foo = ({args}) ->", "start").tokens;
|
||||
var correct = [
|
||||
"entity.name.function", "text", "keyword.operator", "text",
|
||||
"paren.lparen", "paren.lparen", "variable.parameter", "paren.rparen", "paren.rparen", "text", "storage.type"
|
||||
"paren.lparen", "variable.parameter", "paren.rparen", "text", "storage.type"
|
||||
];
|
||||
this.testTokens(tokens, correct);
|
||||
|
||||
|
|
@ -80,7 +80,7 @@ module.exports = {
|
|||
var tokens = this.tokenizer.getLineTokens("foo : ({args}) ->", "start").tokens;
|
||||
var correct = [
|
||||
"entity.name.function", "text", "punctuation.operator", "text",
|
||||
"paren.lparen", "paren.lparen", "variable.parameter", "paren.rparen", "paren.rparen", "text", "storage.type"
|
||||
"paren.lparen", "variable.parameter", "paren.rparen", "text", "storage.type"
|
||||
];
|
||||
this.testTokens(tokens, correct);
|
||||
},
|
||||
|
|
@ -115,16 +115,16 @@ module.exports = {
|
|||
var tokens = this.tokenizer.getLineTokens("foo = ({}) ->", "start").tokens;
|
||||
var correct = [
|
||||
"entity.name.function", "text", "keyword.operator", "text",
|
||||
"paren.lparen", "paren.lparen", "paren.rparen", "paren.rparen", "text", "storage.type"
|
||||
"paren.lparen", "paren.rparen", "text", "storage.type"
|
||||
];
|
||||
this.testTokens(tokens, correct);
|
||||
|
||||
tokens = this.tokenizer.getLineTokens("foo = ({ }) ->", "start").tokens;
|
||||
correct = [
|
||||
"entity.name.function", "text", "keyword.operator", "text",
|
||||
"paren.lparen", "paren.lparen", "text", "paren.rparen", "paren.rparen", "text", "storage.type"
|
||||
"paren.lparen", "text", "paren.rparen", "text", "storage.type"
|
||||
];
|
||||
assert.equal(tokens.length, 11);
|
||||
assert.equal(tokens.length, 9);
|
||||
this.testTokens(tokens, correct);
|
||||
},
|
||||
|
||||
|
|
@ -132,7 +132,7 @@ module.exports = {
|
|||
var tokens = this.tokenizer.getLineTokens("foo : ({}) ->", "start").tokens;
|
||||
var correct = [
|
||||
"entity.name.function", "text", "punctuation.operator", "text",
|
||||
"paren.lparen", "paren.lparen", "paren.rparen", "paren.rparen", "text", "storage.type"
|
||||
"paren.lparen", "paren.rparen", "text", "storage.type"
|
||||
];
|
||||
this.testTokens(tokens, correct);
|
||||
},
|
||||
|
|
|
|||
|
|
@ -61,7 +61,7 @@ var testData = {
|
|||
type: "string",
|
||||
value: "'a'"
|
||||
}, {
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
}, {
|
||||
type: "storage.type",
|
||||
|
|
@ -73,7 +73,7 @@ var testData = {
|
|||
type: "meta.tag.tag-name.script",
|
||||
value: "script"
|
||||
}, {
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
}, {
|
||||
type: "text",
|
||||
|
|
@ -111,7 +111,7 @@ var testData = {
|
|||
type: "string",
|
||||
value: "def\""
|
||||
}, {
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
}
|
||||
]
|
||||
|
|
@ -147,7 +147,7 @@ var testData = {
|
|||
type: "string",
|
||||
value: "def\"'"
|
||||
}, {
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
}
|
||||
]
|
||||
|
|
|
|||
|
|
@ -99,14 +99,11 @@ module.exports = {
|
|||
|
||||
var tokens = this.tokenizer.getLineTokens(line, "start").tokens;
|
||||
|
||||
assert.equal(7, tokens.length);
|
||||
// TODO is it useful to keep parens in separate tokens?
|
||||
assert.equal(3, tokens.length);
|
||||
assert.equal("paren.lparen", tokens[0].type);
|
||||
assert.equal("paren.lparen", tokens[1].type);
|
||||
assert.equal("paren.lparen", tokens[2].type);
|
||||
assert.equal("text", tokens[3].type);
|
||||
assert.equal("paren.rparen", tokens[4].type);
|
||||
assert.equal("paren.rparen", tokens[5].type);
|
||||
assert.equal("paren.rparen", tokens[6].type);
|
||||
assert.equal("text", tokens[1].type);
|
||||
assert.equal("paren.rparen", tokens[2].type);
|
||||
},
|
||||
|
||||
"test for last rule in ruleset to catch capturing group bugs" : function() {
|
||||
|
|
|
|||
|
|
@ -65,14 +65,10 @@ module.exports = {
|
|||
|
||||
var tokens = this.tokenizer.getLineTokens(line, "liquid_start").tokens;
|
||||
|
||||
assert.equal(7, tokens.length);
|
||||
assert.equal(3, tokens.length);
|
||||
assert.equal("paren.lparen", tokens[0].type);
|
||||
assert.equal("paren.lparen", tokens[1].type);
|
||||
assert.equal("paren.lparen", tokens[2].type);
|
||||
assert.equal("text", tokens[3].type);
|
||||
assert.equal("paren.rparen", tokens[4].type);
|
||||
assert.equal("paren.rparen", tokens[5].type);
|
||||
assert.equal("paren.rparen", tokens[6].type);
|
||||
assert.equal("text", tokens[1].type);
|
||||
assert.equal("paren.rparen", tokens[2].type);
|
||||
}
|
||||
|
||||
};
|
||||
|
|
|
|||
|
|
@ -52,7 +52,7 @@ var testData = {
|
|||
value: "Juhu"
|
||||
},
|
||||
{
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
},
|
||||
{
|
||||
|
|
@ -68,7 +68,7 @@ var testData = {
|
|||
value: "Kinners"
|
||||
},
|
||||
{
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
}
|
||||
]
|
||||
|
|
@ -87,7 +87,7 @@ var testData = {
|
|||
value: "Juhu"
|
||||
},
|
||||
{
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
},
|
||||
{
|
||||
|
|
@ -99,7 +99,7 @@ var testData = {
|
|||
value: "Kinners"
|
||||
},
|
||||
{
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: ">"
|
||||
}
|
||||
]
|
||||
|
|
@ -168,7 +168,7 @@ var testData = {
|
|||
value: "}\""
|
||||
},
|
||||
{
|
||||
type: "meta.tag",
|
||||
type: "meta.tag.r",
|
||||
value: "/>"
|
||||
}
|
||||
]
|
||||
|
|
|
|||
|
|
@ -34,6 +34,7 @@ var testNames = [
|
|||
"ace/mode/javascript_highlight_rules_test",
|
||||
"ace/mode/javascript_worker_test",
|
||||
"ace/mode/lucene_highlight_rules_test",
|
||||
"ace/mode/liquid_highlight_rules_test",
|
||||
"ace/mode/python_test",
|
||||
"ace/mode/ruby_highlight_rules_test",
|
||||
"ace/mode/text_test",
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue