]> git.wincent.com - wikitext.git/commitdiff
Change remaining instances of "_Wikitext_" to "wiki_"
authorWincent Colaiuta <win@wincent.com>
Tue, 12 May 2009 22:34:57 +0000 (00:34 +0200)
committerWincent Colaiuta <win@wincent.com>
Tue, 12 May 2009 22:36:48 +0000 (00:36 +0200)
The remaining references mostly appear in comments. The one
significant change is the renaming of the "_Wikitext_token"
method to "wiki_token".

Signed-off-by: Wincent Colaiuta <win@wincent.com>
ext/ary.h
ext/parser.c
ext/token.c
ext/token.h
spec/link_sanitizing_spec.rb
spec/regressions_spec.rb

index d6405d51ae80bddcdf3ca323d34eda4247133299..6a5e744b233e177fedfed56ff2fb7a940ea90994 100644 (file)
--- a/ext/ary.h
+++ b/ext/ary.h
@@ -43,7 +43,6 @@ void ary_push(ary_t *ary, int val);
 int ary_includes(ary_t *ary, int val);
 
 // returns a count indicating the number of times the value appears in the collection
-// refactored from _Wikitext_count()
 int ary_count(ary_t *ary, int item);
 
 void ary_free(ary_t *ary);
index 9d0691573317e286ab24be06b9d20dae32c6724e..5c8bac7261a20409f8264d26005c5b6d71e9a281 100644 (file)
@@ -181,11 +181,11 @@ VALUE Wikitext_parser_tokenize(VALUE self, VALUE string)
     char *pe = p + len;
     token_t token;
     next_token(&token, NULL, p, pe);
-    rb_ary_push(tokens, _Wikitext_token(&token));
+    rb_ary_push(tokens, wiki_token(&token));
     while (token.type != END_OF_FILE)
     {
         next_token(&token, &token, NULL, pe);
-        rb_ary_push(tokens, _Wikitext_token(&token));
+        rb_ary_push(tokens, wiki_token(&token));
     }
     return tokens;
 }
index 16fc971421758b55e58e772efe4e7f3a6a3a0fb1..9c5d9147655bed0132788c5bd17540544326e5e6 100644 (file)
@@ -105,7 +105,7 @@ VALUE Wikitext_parser_token_types(VALUE self)
 }
 
 // for testing and debugging only
-VALUE _Wikitext_token(token_t *token)
+VALUE wiki_token(token_t *token)
 {
     VALUE object = rb_class_new_instance(0, NULL, cWikitextParserToken);
     (void)rb_iv_set(object, "@start",           LONG2NUM((long)token->start));
index 76c99c9d66ff73d054c73fb295f2b8c18316d8c0..31f457dba15f25054389ab8046985b0442d03a76 100644 (file)
@@ -114,4 +114,4 @@ enum token_types {
 
 VALUE Wikitext_parser_token_types(VALUE self);
 
-VALUE _Wikitext_token(token_t *token);
+VALUE wiki_token(token_t *token);
index 6e433dbee7a718ef1e9da19f3184f2ab6396c76d..22093c9b18fb05295916184e0a478a561d9953cd 100755 (executable)
@@ -103,7 +103,7 @@ describe Wikitext, 'sanitizing a link target' do
     Wikitext::Parser.sanitize_link_target('foo, "bar" & baz €').should == 'foo, &quot;bar&quot; &amp; baz &#x20ac;'
   end
 
-  # here we're exercising the _Wikitext_utf8_to_utf32 function
+  # here we're exercising the wiki_utf8_to_utf32 function
   describe 'with invalidly encoded input' do
     it 'should raise an exception for missing second byte' do
       lambda {
index 5ddb0d4e9e725565d3f1af01c4cb8f94bc02c313..9ddb871e71cf0ea5ef729ee8cd7d2060264cb239 100755 (executable)
@@ -130,7 +130,7 @@ describe Wikitext::Parser, 'regressions' do
 
   # this is the general case of the bug covered in the previous spec
   # any token that appears as the first token after a PRE token can manifest this bug
-  # PRINTABLE didn't only because it called _Wikitext_start_para_if_necessary(), which handled the pending CRLF
+  # PRINTABLE didn't only because it called wiki_start_para_if_necessary(), which handled the pending CRLF
   it 'should emit pending newlines for all token types found inside PRE and PRE_START blocks' do
     # PRE_START
     input = dedent <<-END
@@ -441,7 +441,7 @@ describe Wikitext::Parser, 'regressions' do
     END
     @parser.parse(input).should == expected
 
-    # these tokens weren't affected by the bug, seeing as they either call _Wikitext_start_para_if_necessary()
+    # these tokens weren't affected by the bug, seeing as they either call wiki_start_para_if_necessary()
     # or they can only appear in PRE_START (not PRE) thanks to the tokenizer
     # but we add specs for them to make sure that the issue never crops up for them in the future