libsyntax: change flip_delimiter to take a &token::Token
This commit is contained in:
parent
4650da5888
commit
f3965829ff
2 changed files with 6 additions and 6 deletions
|
|
@ -1228,7 +1228,7 @@ pub impl Parser {
|
|||
_ => self.fatal(~"expected open delimiter")
|
||||
};
|
||||
|
||||
let ket = token::flip_delimiter(*self.token);
|
||||
let ket = token::flip_delimiter(&*self.token);
|
||||
let tts = self.parse_unspanned_seq(*self.token,
|
||||
ket,
|
||||
seq_sep_none(),
|
||||
|
|
@ -1433,7 +1433,7 @@ pub impl Parser {
|
|||
}
|
||||
token::LPAREN | token::LBRACE | token::LBRACKET => {
|
||||
// tjc: ??????
|
||||
let ket = token::flip_delimiter(*self.token);
|
||||
let ket = token::flip_delimiter(&*self.token);
|
||||
tt_delim(vec::append(
|
||||
// the open delimiter:
|
||||
~[parse_any_tt_tok(self)],
|
||||
|
|
@ -1465,7 +1465,7 @@ pub impl Parser {
|
|||
token::LBRACE | token::LPAREN | token::LBRACKET => {
|
||||
self.parse_matcher_subseq(name_idx, *self.token,
|
||||
// tjc: not sure why we need a copy
|
||||
token::flip_delimiter(*self.token))
|
||||
token::flip_delimiter(&*self.token))
|
||||
}
|
||||
_ => self.fatal(~"expected open delimiter")
|
||||
}
|
||||
|
|
@ -3915,7 +3915,7 @@ pub impl Parser {
|
|||
// eat a matched-delimiter token tree:
|
||||
let tts = match *self.token {
|
||||
token::LPAREN | token::LBRACE => {
|
||||
let ket = token::flip_delimiter(*self.token);
|
||||
let ket = token::flip_delimiter(&*self.token);
|
||||
self.parse_unspanned_seq(*self.token, ket,
|
||||
seq_sep_none(),
|
||||
|p| p.parse_token_tree())
|
||||
|
|
|
|||
|
|
@ -257,8 +257,8 @@ pub pure fn can_begin_expr(t: Token) -> bool {
|
|||
}
|
||||
|
||||
/// what's the opposite delimiter?
|
||||
pub fn flip_delimiter(t: token::Token) -> token::Token {
|
||||
match t {
|
||||
pub fn flip_delimiter(t: &token::Token) -> token::Token {
|
||||
match *t {
|
||||
token::LPAREN => token::RPAREN,
|
||||
token::LBRACE => token::RBRACE,
|
||||
token::LBRACKET => token::RBRACKET,
|
||||
|
|
|
|||
Loading…
Add table
Add a link
Reference in a new issue