]> git.wincent.com - wikitext.git/blob - ext/parser.c
Add ability to override external_link_rel via an accessor
[wikitext.git] / ext / parser.c
1 // Copyright 2007-2010 Wincent Colaiuta. All rights reserved.
2 //
3 // Redistribution and use in source and binary forms, with or without
4 // modification, are permitted provided that the following conditions are met:
5 //
6 // 1. Redistributions of source code must retain the above copyright notice,
7 //    this list of conditions and the following disclaimer.
8 // 2. Redistributions in binary form must reproduce the above copyright notice,
9 //    this list of conditions and the following disclaimer in the documentation
10 //    and/or other materials provided with the distribution.
11 //
12 // THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
13 // AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
14 // IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
15 // ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT HOLDERS OR CONTRIBUTORS BE
16 // LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
17 // CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
18 // SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
19 // INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
20 // CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
21 // ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
22 // POSSIBILITY OF SUCH DAMAGE.
23
24 #include <stdbool.h>
25
26 #include "parser.h"
27 #include "ary.h"
28 #include "str.h"
29 #include "wikitext.h"
30 #include "wikitext_ragel.h"
31
32 #define IN(type) ary_includes(parser->scope, type)
33 #define IN_EITHER_OF(type1, type2) ary_includes2(parser->scope, type1, type2)
34 #define IN_ANY_OF(type1, type2, type3) ary_includes3(parser->scope, type1, type2, type3)
35
36 // output styles
37 enum { HTML_OUTPUT, XML_OUTPUT };
38
39 // poor man's object orientation in C:
40 // instead of passing around multiple parameters between functions in the parser
41 // we pack everything into a struct and pass around only a pointer to that
42 typedef struct
43 {
44     str_t   *capture;               // capturing to link_target, link_text, or NULL (direct to output, not capturing)
45     str_t   *output;                // for accumulating output to be returned
46     str_t   *link_target;           // short term "memory" for parsing links
47     str_t   *link_text;             // short term "memory" for parsing links
48     str_t   *line_ending;
49     str_t   *tabulation;            // caching buffer for emitting indentation
50     ary_t   *scope;                 // stack for tracking scope
51     ary_t   *line;                  // stack for tracking scope as implied by current line
52     ary_t   *line_buffer;           // stack for tracking raw tokens (not scope) on current line
53     VALUE   external_link_class;    // CSS class applied to external links
54     VALUE   external_link_rel;      // rel attribute applied to external links
55     VALUE   mailto_class;           // CSS class applied to email (mailto) links
56     VALUE   img_prefix;             // path prepended when emitting img tags
57     int     output_style;           // HTML_OUTPUT (default) or XML_OUTPUT
58     int     base_indent;            // controlled by the :indent option to Wikitext::Parser#parse
59     int     current_indent;         // fluctuates according to currently nested structures
60     int     base_heading_level;
61     bool    pending_crlf;
62     bool    autolink;
63     bool    space_to_underscore;
64 } parser_t;
65
66 const char null_str[]                   = { 0 };
67 const char escaped_no_wiki_start[]      = "&lt;nowiki&gt;";
68 const char escaped_no_wiki_end[]        = "&lt;/nowiki&gt;";
69 const char literal_strong_em[]          = "'''''";
70 const char literal_strong[]             = "'''";
71 const char literal_em[]                 = "''";
72 const char escaped_em_start[]           = "&lt;em&gt;";
73 const char escaped_em_end[]             = "&lt;/em&gt;";
74 const char escaped_strong_start[]       = "&lt;strong&gt;";
75 const char escaped_strong_end[]         = "&lt;/strong&gt;";
76 const char escaped_tt_start[]           = "&lt;tt&gt;";
77 const char escaped_tt_end[]             = "&lt;/tt&gt;";
78 const char pre_start[]                  = "<pre>";
79 const char pre_end[]                    = "</pre>";
80 const char escaped_pre_start[]          = "&lt;pre&gt;";
81 const char escaped_pre_end[]            = "&lt;/pre&gt;";
82 const char blockquote_start[]           = "<blockquote>";
83 const char blockquote_end[]             = "</blockquote>";
84 const char escaped_blockquote_start[]   = "&lt;blockquote&gt;";
85 const char escaped_blockquote_end[]     = "&lt;/blockquote&gt;";
86 const char strong_em_start[]            = "<strong><em>";
87 const char strong_start[]               = "<strong>";
88 const char strong_end[]                 = "</strong>";
89 const char em_start[]                   = "<em>";
90 const char em_end[]                     = "</em>";
91 const char code_start[]                 = "<code>";
92 const char code_end[]                   = "</code>";
93 const char ol_start[]                   = "<ol>";
94 const char ol_end[]                     = "</ol>";
95 const char ul_start[]                   = "<ul>";
96 const char ul_end[]                     = "</ul>";
97 const char li_start[]                   = "<li>";
98 const char li_end[]                     = "</li>";
99 const char h6_start[]                   = "<h6>";
100 const char h6_end[]                     = "</h6>";
101 const char h5_start[]                   = "<h5>";
102 const char h5_end[]                     = "</h5>";
103 const char h4_start[]                   = "<h4>";
104 const char h4_end[]                     = "</h4>";
105 const char h3_start[]                   = "<h3>";
106 const char h3_end[]                     = "</h3>";
107 const char h2_start[]                   = "<h2>";
108 const char h2_end[]                     = "</h2>";
109 const char h1_start[]                   = "<h1>";
110 const char h1_end[]                     = "</h1>";
111 const char p_start[]                    = "<p>";
112 const char p_end[]                      = "</p>";
113 const char space[]                      = " ";
114 const char a_start[]                    = "<a href=\"";
115 const char a_class[]                    = "\" class=\"";
116 const char a_rel[]                      = "\" rel=\"";
117 const char a_start_close[]              = "\">";
118 const char a_end[]                      = "</a>";
119 const char link_start[]                 = "[[";
120 const char link_end[]                   = "]]";
121 const char separator[]                  = "|";
122 const char ext_link_start[]             = "[";
123 const char backtick[]                   = "`";
124 const char quote[]                      = "\"";
125 const char ampersand[]                  = "&";
126 const char quot_entity[]                = "&quot;";
127 const char amp_entity[]                 = "&amp;";
128 const char lt_entity[]                  = "&lt;";
129 const char gt_entity[]                  = "&gt;";
130 const char escaped_blockquote[]         = "&gt; ";
131 const char ext_link_end[]               = "]";
132 const char literal_img_start[]          = "{{";
133 const char img_start[]                  = "<img src=\"";
134 const char img_end_xml[]                = "\" />";
135 const char img_end_html[]               = "\">";
136 const char img_alt[]                    = "\" alt=\"";
137 const char pre_class_start[]            = "<pre class=\"";
138 const char pre_class_end[]              = "-syntax\">";
139
140 // Mark the parser struct designated by ptr as a participant in Ruby's
141 // mark-and-sweep garbage collection scheme. A variable named name is placed on
142 // the C stack to prevent the structure from being prematurely collected.
143 #define GC_WRAP_PARSER(ptr, name) volatile VALUE name __attribute__((unused)) = Data_Wrap_Struct(rb_cObject, 0, parser_free, ptr)
144
145 parser_t *parser_new(void)
146 {
147     parser_t *parser                = ALLOC_N(parser_t, 1);
148     parser->capture                 = NULL; // not a real instance, pointer to other member's instance
149     parser->output                  = str_new();
150     parser->link_target             = str_new();
151     parser->link_text               = str_new();
152     parser->line_ending             = NULL; // caller should set up
153     parser->tabulation              = str_new();
154     parser->scope                   = ary_new();
155     parser->line                    = ary_new();
156     parser->line_buffer             = ary_new();
157     parser->external_link_class     = Qnil; // caller should set up
158     parser->external_link_rel       = Qnil; // caller should set up
159     parser->mailto_class            = Qnil; // caller should set up
160     parser->img_prefix              = Qnil; // caller should set up
161     parser->output_style            = HTML_OUTPUT;
162     parser->base_indent             = 0;
163     parser->current_indent          = 0;
164     parser->base_heading_level      = 0;
165     parser->pending_crlf            = false;
166     parser->autolink                = true;
167     parser->space_to_underscore     = true;
168     return parser;
169 }
170
171 void parser_free(parser_t *parser)
172 {
173     // we don't free parser->capture; it's just a redundant pointer
174     if (parser->output)         str_free(parser->output);
175     if (parser->link_target)    str_free(parser->link_target);
176     if (parser->link_text)      str_free(parser->link_text);
177     if (parser->line_ending)    str_free(parser->line_ending);
178     if (parser->tabulation)     str_free(parser->tabulation);
179     if (parser->scope)          ary_free(parser->scope);
180     if (parser->line)           ary_free(parser->line);
181     if (parser->line_buffer)    ary_free(parser->line_buffer);
182     free(parser);
183 }
184
185 // for testing and debugging only
186 VALUE Wikitext_parser_tokenize(VALUE self, VALUE string)
187 {
188     if (NIL_P(string))
189         return Qnil;
190     string = StringValue(string);
191     VALUE tokens = rb_ary_new();
192     char *p = RSTRING_PTR(string);
193     long len = RSTRING_LEN(string);
194     char *pe = p + len;
195     token_t token;
196     next_token(&token, NULL, p, pe);
197     rb_ary_push(tokens, wiki_token(&token));
198     while (token.type != END_OF_FILE)
199     {
200         next_token(&token, &token, NULL, pe);
201         rb_ary_push(tokens, wiki_token(&token));
202     }
203     return tokens;
204 }
205
206 // for benchmarking raw tokenization speed only
207 VALUE Wikitext_parser_benchmarking_tokenize(VALUE self, VALUE string)
208 {
209     if (NIL_P(string))
210         return Qnil;
211     string = StringValue(string);
212     char *p = RSTRING_PTR(string);
213     long len = RSTRING_LEN(string);
214     char *pe = p + len;
215     token_t token;
216     next_token(&token, NULL, p, pe);
217     while (token.type != END_OF_FILE)
218         next_token(&token, &token, NULL, pe);
219     return Qnil;
220 }
221
222 VALUE Wikitext_parser_fulltext_tokenize(int argc, VALUE *argv, VALUE self)
223 {
224     // process arguments
225     VALUE string, options;
226     if (rb_scan_args(argc, argv, "11", &string, &options) == 1) // 1 mandatory argument, 1 optional argument
227         options = Qnil;
228     if (NIL_P(string))
229         return Qnil;
230     string = StringValue(string);
231     VALUE tokens = rb_ary_new();
232
233     // check instance variables
234     VALUE min = rb_iv_get(self, "@minimum_fulltext_token_length");
235
236     // process options hash (can override instance variables)
237     if (!NIL_P(options) && TYPE(options) == T_HASH)
238     {
239         if (rb_funcall(options, rb_intern("has_key?"), 1, ID2SYM(rb_intern("minimum"))) == Qtrue)
240             min = rb_hash_aref(options, ID2SYM(rb_intern("minimum")));
241     }
242     int min_len = NIL_P(min) ? 3 : NUM2INT(min);
243     if (min_len < 0)
244         min_len = 0;
245
246     // set up scanner
247     char *p = RSTRING_PTR(string);
248     long len = RSTRING_LEN(string);
249     char *pe = p + len;
250     token_t token;
251     token_t *_token = &token;
252     next_token(&token, NULL, p, pe);
253     while (token.type != END_OF_FILE)
254     {
255         switch (token.type)
256         {
257             case URI:
258             case MAIL:
259             case ALNUM:
260                 if (TOKEN_LEN(_token) >= min_len)
261                     rb_ary_push(tokens, TOKEN_TEXT(_token));
262                 break;
263             default:
264                 // ignore everything else
265                 break;
266         }
267         next_token(&token, &token, NULL, pe);
268     }
269     return tokens;
270 }
271
272 // we downcase "in place", overwriting the original contents of the buffer
273 void wiki_downcase_bang(char *ptr, long len)
274 {
275     for (long i = 0; i < len; i++)
276     {
277         if (ptr[i] >= 'A' && ptr[i] <= 'Z')
278             ptr[i] += 32;
279     }
280 }
281
282 // prepare hyperlink and append it to parser->output
283 // if check_autolink is true, checks parser->autolink to decide whether to emit a real hyperlink
284 // or merely the literal link target
285 // if link_text is Qnil, the link_target is re-used for the link text
286 void wiki_append_hyperlink(parser_t *parser, VALUE link_prefix, str_t *link_target, str_t *link_text, VALUE link_class, VALUE link_rel, bool check_autolink)
287 {
288     if (check_autolink && !parser->autolink)
289         str_append_str(parser->output, link_target);
290     else
291     {
292         str_append(parser->output, a_start, sizeof(a_start) - 1);               // <a href="
293         if (!NIL_P(link_prefix))
294             str_append_string(parser->output, link_prefix);
295         str_append_str(parser->output, link_target);
296
297         // special handling for mailto URIs
298         const char *mailto = "mailto:";
299         long mailto_len = (long)sizeof(mailto) - 1; // don't count NUL byte
300         if ((link_target->len >= mailto_len &&
301              strncmp(mailto, link_target->ptr, mailto_len) == 0) ||
302             (!NIL_P(link_prefix) &&
303              RSTRING_LEN(link_prefix) >= mailto_len &&
304              strncmp(mailto, RSTRING_PTR(link_prefix), mailto_len) == 0))
305             link_class = parser->mailto_class; // use mailto_class from parser
306         if (link_class != Qnil)
307         {
308             str_append(parser->output, a_class, sizeof(a_class) - 1);           // " class="
309             str_append_string(parser->output, link_class);
310         }
311         if (link_rel != Qnil)
312         {
313             str_append(parser->output, a_rel, sizeof(a_rel) - 1);               // " rel="
314             str_append_string(parser->output, link_rel);
315         }
316         str_append(parser->output, a_start_close, sizeof(a_start_close) - 1);   // ">
317         if (!link_text || link_text->len == 0) // re-use link_target
318             str_append_str(parser->output, link_target);
319         else
320             str_append_str(parser->output, link_text);
321         str_append(parser->output, a_end, sizeof(a_end) - 1);                   // </a>
322     }
323 }
324
325 void wiki_append_img(parser_t *parser, char *token_ptr, int token_len)
326 {
327     str_append(parser->output, img_start, sizeof(img_start) - 1);           // <img src="
328     if (!NIL_P(parser->img_prefix) && *token_ptr != '/')                    // len always > 0
329         str_append_string(parser->output, parser->img_prefix);
330     str_append(parser->output, token_ptr, token_len);
331     str_append(parser->output, img_alt, sizeof(img_alt) - 1);               // " alt="
332     str_append(parser->output, token_ptr, token_len);
333     if (parser->output_style == XML_OUTPUT)
334         str_append(parser->output, img_end_xml, sizeof(img_end_xml) - 1);   // " />
335     else
336         str_append(parser->output, img_end_html, sizeof(img_end_html) - 1); // ">
337 }
338
339 // will emit indentation only if we are about to emit any of:
340 //      <blockquote>, <p>, <ul>, <ol>, <li>, <h1> etc, <pre>
341 // each time we enter one of those spans must ++ the indentation level
342 void wiki_indent(parser_t *parser)
343 {
344     if (parser->base_indent == -1) // indentation disabled
345         return;
346     int space_count = parser->current_indent + parser->base_indent;
347     if (space_count > 0)
348     {
349         char *old_end, *new_end;
350         if (parser->tabulation->len < space_count)
351             str_grow(parser->tabulation, space_count); // reallocates if necessary
352         old_end = parser->tabulation->ptr + parser->tabulation->len;
353         new_end = parser->tabulation->ptr + space_count;
354         while (old_end < new_end)
355             *old_end++ = ' ';
356         if (space_count > parser->tabulation->len)
357             parser->tabulation->len = space_count;
358         str_append(parser->output, parser->tabulation->ptr, space_count);
359     }
360     parser->current_indent += 2;
361 }
362
363 void wiki_append_pre_start(parser_t *parser, token_t *token)
364 {
365     wiki_indent(parser);
366     if ((size_t)TOKEN_LEN(token) > sizeof(pre_start) - 1)
367     {
368         str_append(parser->output, pre_class_start, sizeof(pre_class_start) - 1);   // <pre class="
369         str_append(parser->output, token->start + 11, TOKEN_LEN(token) - 13);       // (the "lang" substring)
370         str_append(parser->output, pre_class_end, sizeof(pre_class_end) - 1);       // -syntax">
371     }
372     else
373         str_append(parser->output, pre_start, sizeof(pre_start) - 1);
374     ary_push(parser->scope, PRE_START);
375     ary_push(parser->line, PRE_START);
376 }
377
378 void wiki_dedent(parser_t *parser, bool emit)
379 {
380     if (parser->base_indent == -1) // indentation disabled
381         return;
382     parser->current_indent -= 2;
383     if (!emit)
384         return;
385     int space_count = parser->current_indent + parser->base_indent;
386     if (space_count > 0)
387         str_append(parser->output, parser->tabulation->ptr, space_count);
388 }
389
390 // Pops a single item off the parser's scope stack.
391 // A corresponding closing tag is written to the target string.
392 // The target string may be the main output buffer, or a substring capturing buffer if a link is being scanned.
393 void wiki_pop_from_stack(parser_t *parser, str_t *target)
394 {
395     int top = ary_entry(parser->scope, -1);
396     if (NO_ITEM(top))
397         return;
398     if (!target)
399         target = parser->output;
400
401     // for headings, take base_heading_level into account
402     if (top >= H1_START && top <= H6_START)
403     {
404         top += parser->base_heading_level;
405         // no need to check for underflow (base_heading_level is never negative)
406         if (top > H6_START)
407             top = H6_START;
408     }
409
410     switch (top)
411     {
412         case PRE:
413         case PRE_START:
414             str_append(target, pre_end, sizeof(pre_end) - 1);
415             str_append_str(target, parser->line_ending);
416             wiki_dedent(parser, false);
417             break;
418
419         case BLOCKQUOTE:
420         case BLOCKQUOTE_START:
421             wiki_dedent(parser, true);
422             str_append(target, blockquote_end, sizeof(blockquote_end) - 1);
423             str_append_str(target, parser->line_ending);
424             break;
425
426         case NO_WIKI_START:
427             // not a real HTML tag; so nothing to pop
428             break;
429
430         case STRONG:
431         case STRONG_START:
432             str_append(target, strong_end, sizeof(strong_end) - 1);
433             break;
434
435         case EM:
436         case EM_START:
437             str_append(target, em_end, sizeof(em_end) - 1);
438             break;
439
440         case TT:
441         case TT_START:
442             str_append(target, code_end, sizeof(code_end) - 1);
443             break;
444
445         case OL:
446             wiki_dedent(parser, true);
447             str_append(target, ol_end, sizeof(ol_end) - 1);
448             str_append_str(target, parser->line_ending);
449             break;
450
451         case UL:
452             wiki_dedent(parser, true);
453             str_append(target, ul_end, sizeof(ul_end) - 1);
454             str_append_str(target, parser->line_ending);
455             break;
456
457         case NESTED_LIST:
458             // next token to pop will be a LI
459             // LI is an interesting token because sometimes we want it to behave like P (ie. do a non-emitting indent)
460             // and other times we want it to behave like BLOCKQUOTE (ie. when it has a nested list inside)
461             // hence this hack: we do an emitting dedent on behalf of the LI that we know must be coming
462             // and then when we pop the actual LI itself (below) we do the standard non-emitting indent
463             wiki_dedent(parser, true);      // we really only want to emit the spaces
464             parser->current_indent += 2;    // we don't want to decrement the actual indent level, so put it back
465             break;
466
467         case LI:
468             str_append(target, li_end, sizeof(li_end) - 1);
469             str_append_str(target, parser->line_ending);
470             wiki_dedent(parser, false);
471             break;
472
473         case H6_START:
474             str_append(target, h6_end, sizeof(h6_end) - 1);
475             str_append_str(target, parser->line_ending);
476             wiki_dedent(parser, false);
477             break;
478
479         case H5_START:
480             str_append(target, h5_end, sizeof(h5_end) - 1);
481             str_append_str(target, parser->line_ending);
482             wiki_dedent(parser, false);
483             break;
484
485         case H4_START:
486             str_append(target, h4_end, sizeof(h4_end) - 1);
487             str_append_str(target, parser->line_ending);
488             wiki_dedent(parser, false);
489             break;
490
491         case H3_START:
492             str_append(target, h3_end, sizeof(h3_end) - 1);
493             str_append_str(target, parser->line_ending);
494             wiki_dedent(parser, false);
495             break;
496
497         case H2_START:
498             str_append(target, h2_end, sizeof(h2_end) - 1);
499             str_append_str(target, parser->line_ending);
500             wiki_dedent(parser, false);
501             break;
502
503         case H1_START:
504             str_append(target, h1_end, sizeof(h1_end) - 1);
505             str_append_str(target, parser->line_ending);
506             wiki_dedent(parser, false);
507             break;
508
509         case LINK_START:
510             // not an HTML tag; so nothing to emit
511             break;
512
513         case EXT_LINK_START:
514             // not an HTML tag; so nothing to emit
515             break;
516
517         case PATH:
518             // not an HTML tag; so nothing to emit
519             break;
520
521         case SPACE:
522             // not an HTML tag (only used to separate an external link target from the link text); so nothing to emit
523             break;
524
525         case SEPARATOR:
526             // not an HTML tag (only used to separate an external link target from the link text); so nothing to emit
527             break;
528
529         case P:
530             str_append(target, p_end, sizeof(p_end) - 1);
531             str_append_str(target, parser->line_ending);
532             wiki_dedent(parser, false);
533             break;
534
535         case END_OF_FILE:
536             // nothing to do
537             break;
538
539         default:
540             // should probably raise an exception here
541             break;
542     }
543     ary_pop(parser->scope);
544 }
545
546 // Pops items off the top of parser's scope stack, accumulating closing tags for them into the target string, until item is reached.
547 // If including is true then the item itself is also popped.
548 // The target string may be the main output buffer, or a substring capturing buffer when scanning links.
549 void wiki_pop_from_stack_up_to(parser_t *parser, str_t *target, int item, bool including)
550 {
551     int continue_looping = 1;
552     do
553     {
554         int top = ary_entry(parser->scope, -1);
555         if (NO_ITEM(top))
556             return;
557         if (top == item)
558         {
559             if (!including)
560                 return;
561             continue_looping = 0;
562         }
563         wiki_pop_from_stack(parser, target);
564     } while (continue_looping);
565 }
566
567 void wiki_pop_all_from_stack(parser_t *parser)
568 {
569     for (int i = 0, max = parser->scope->count; i < max; i++)
570         wiki_pop_from_stack(parser, NULL);
571 }
572
573 void wiki_start_para_if_necessary(parser_t *parser)
574 {
575     if (parser->capture)
576         return;
577
578     // if no block open yet, or top of stack is BLOCKQUOTE/BLOCKQUOTE_START (with nothing in it yet)
579     if (parser->scope->count == 0 ||
580         ary_entry(parser->scope, -1) == BLOCKQUOTE ||
581         ary_entry(parser->scope, -1) == BLOCKQUOTE_START)
582     {
583         wiki_indent(parser);
584         str_append(parser->output, p_start, sizeof(p_start) - 1);
585         ary_push(parser->scope, P);
586         ary_push(parser->line, P);
587     }
588     else if (parser->pending_crlf)
589     {
590         if (IN(P))
591             // already in a paragraph block; convert pending CRLF into a space
592             str_append(parser->output, space, sizeof(space) - 1);
593         else if (IN(PRE))
594             // PRE blocks can have pending CRLF too (helps us avoid emitting the trailing newline)
595             str_append_str(parser->output, parser->line_ending);
596     }
597     parser->pending_crlf = false;
598 }
599
600 void wiki_emit_pending_crlf_if_necessary(parser_t *parser)
601 {
602     if (parser->pending_crlf)
603     {
604         str_append_str(parser->output, parser->line_ending);
605         parser->pending_crlf = false;
606     }
607 }
608
609 // Helper function that pops any excess elements off scope (pushing is already handled in the respective rules).
610 // For example, given input like:
611 //
612 //      > > foo
613 //      bar
614 //
615 // Upon seeing "bar", we want to pop two BLOCKQUOTE elements from the scope.
616 // The reverse case (shown below) is handled from inside the BLOCKQUOTE rule itself:
617 //
618 //      foo
619 //      > > bar
620 //
621 // Things are made slightly more complicated by the fact that there is one block-level tag that can be on the scope
622 // but not on the line scope:
623 //
624 //      <blockquote>foo
625 //      bar</blockquote>
626 //
627 // Here on seeing "bar" we have one item on the scope (BLOCKQUOTE_START) which we don't want to pop, but we have nothing
628 // on the line scope.
629 // Luckily, BLOCKQUOTE_START tokens can only appear at the start of the scope array, so we can check for them first before
630 // entering the for loop.
631 void wiki_pop_excess_elements(parser_t *parser)
632 {
633     if (parser->capture)
634         return;
635     for (int i = parser->scope->count - ary_count(parser->scope, BLOCKQUOTE_START), j = parser->line->count; i > j; i--)
636     {
637         // special case for last item on scope
638         if (i - j == 1)
639         {
640             // don't auto-pop P if it is only item on scope
641             if (ary_entry(parser->scope, -1) == P)
642             {
643                 // add P to the line scope to prevent us entering the loop at all next time around
644                 ary_push(parser->line, P);
645                 continue;
646             }
647         }
648         wiki_pop_from_stack(parser, NULL);
649     }
650 }
651
652 // Convert a single UTF-8 codepoint to UTF-32
653 //
654 // Expects an input buffer, src, containing a UTF-8 encoded character (which
655 // may be multi-byte). The end of the input buffer, end, is also passed in to
656 // allow the detection of invalidly truncated codepoints. The number of bytes
657 // in the UTF-8 character (between 1 and 4) is returned by reference in
658 // width_out.
659 //
660 // Raises a RangeError if the supplied character is invalid UTF-8.
661 uint32_t wiki_utf8_to_utf32(char *src, char *end, long *width_out)
662 {
663     uint32_t dest;
664     if ((unsigned char)src[0] <= 0x7f)
665     {
666         // ASCII
667         dest = src[0];
668         *width_out = 1;
669     }
670     else if ((src[0] & 0xe0) == 0xc0)
671     {
672         // byte starts with 110..... : this should be a two-byte sequence
673         if (src + 1 >= end)
674             // no second byte
675             rb_raise(eWikitextParserError, "invalid encoding: truncated byte sequence");
676         else if (((unsigned char)src[0] == 0xc0) ||
677                 ((unsigned char)src[0] == 0xc1))
678             // overlong encoding: lead byte of 110..... but code point <= 127
679             rb_raise(eWikitextParserError, "invalid encoding: overlong encoding");
680         else if ((src[1] & 0xc0) != 0x80 )
681             // should have second byte starting with 10......
682             rb_raise(eWikitextParserError, "invalid encoding: malformed byte sequence");
683
684         dest =
685             ((uint32_t)(src[0] & 0x1f)) << 6 |
686             (src[1] & 0x3f);
687         *width_out = 2;
688     }
689     else if ((src[0] & 0xf0) == 0xe0)
690     {
691         // byte starts with 1110.... : this should be a three-byte sequence
692         if (src + 2 >= end)
693             // missing second or third byte
694             rb_raise(eWikitextParserError, "invalid encoding: truncated byte sequence");
695         else if (((src[1] & 0xc0) != 0x80 ) ||
696                 ((src[2] & 0xc0) != 0x80 ))
697             // should have second and third bytes starting with 10......
698             rb_raise(eWikitextParserError, "invalid encoding: malformed byte sequence");
699
700         dest =
701             ((uint32_t)(src[0] & 0x0f)) << 12 |
702             ((uint32_t)(src[1] & 0x3f)) << 6 |
703             (src[2] & 0x3f);
704         *width_out = 3;
705     }
706     else if ((src[0] & 0xf8) == 0xf0)
707     {
708         // bytes starts with 11110... : this should be a four-byte sequence
709         if (src + 3 >= end)
710             // missing second, third, or fourth byte
711             rb_raise(eWikitextParserError, "invalid encoding: truncated byte sequence");
712         else if ((unsigned char)src[0] >= 0xf5 &&
713                 (unsigned char)src[0] <= 0xf7)
714             // disallowed by RFC 3629 (codepoints above 0x10ffff)
715             rb_raise(eWikitextParserError, "invalid encoding: overlong encoding");
716         else if (((src[1] & 0xc0) != 0x80 ) ||
717                 ((src[2] & 0xc0) != 0x80 ) ||
718                 ((src[3] & 0xc0) != 0x80 ))
719             // should have second and third bytes starting with 10......
720             rb_raise(eWikitextParserError, "invalid encoding: malformed byte sequence");
721
722         dest =
723             ((uint32_t)(src[0] & 0x07)) << 18 |
724             ((uint32_t)(src[1] & 0x3f)) << 12 |
725             ((uint32_t)(src[1] & 0x3f)) << 6 |
726             (src[2] & 0x3f);
727         *width_out = 4;
728     }
729     else
730         rb_raise(eWikitextParserError, "invalid encoding: unexpected byte");
731     return dest;
732 }
733
734 void wiki_append_entity_from_utf32_char(str_t *output, uint32_t character)
735 {
736     char hex_string[8]  = { '&', '#', 'x', 0, 0, 0, 0, ';' };
737     char scratch        = (character & 0xf000) >> 12;
738     hex_string[3]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
739     scratch             = (character & 0x0f00) >> 8;
740     hex_string[4]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
741     scratch             = (character & 0x00f0) >> 4;
742     hex_string[5]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
743     scratch             = character & 0x000f;
744     hex_string[6]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
745     str_append(output, hex_string, sizeof(hex_string));
746 }
747
748 // trim parser->link_text in place
749 void wiki_trim_link_text(parser_t *parser)
750 {
751     char    *src        = parser->link_text->ptr;
752     char    *start      = src;                  // remember this so we can check if we're at the start
753     char    *left       = src;
754     char    *non_space  = src;                  // remember last non-space character output
755     char    *end        = src + parser->link_text->len;
756     while (src < end)
757     {
758         if (*src == ' ')
759         {
760             if (src == left)
761                 left++;
762         }
763         else
764             non_space = src;
765         src++;
766     }
767     if (left != start || non_space + 1 != end)
768     {
769         // TODO: could potentially avoid this memmove by extending the str_t struct with an "offset" or "free" member
770         parser->link_text->len = (non_space + 1) - left;
771         memmove(parser->link_text->ptr, left, parser->link_text->len);
772     }
773 }
774
775 // - non-printable (non-ASCII) characters converted to numeric entities
776 // - QUOT and AMP characters converted to named entities
777 // - if trim is true, leading and trailing whitespace trimmed
778 // - if trim is false, there is no special treatment of spaces
779 void wiki_append_sanitized_link_target(parser_t *parser, str_t *output, bool trim)
780 {
781     char    *src        = parser->link_target->ptr;
782     char    *start      = src;                          // remember this so we can check if we're at the start
783     char    *non_space  = output->ptr + output->len;    // remember last non-space character output
784     char    *end        = src + parser->link_target->len;
785     while (src < end)
786     {
787         // need at most 8 bytes to display each input character (&#x0000;)
788         if (output->ptr + output->len + 8 > output->ptr + output->capacity) // outgrowing buffer, must grow
789         {
790             char *old_ptr = output->ptr;
791             str_grow(output, output->len + (end - src) * 8);    // allocate enough for worst case
792             if (old_ptr != output->ptr) // may have moved
793                 non_space += output->ptr - old_ptr;
794         }
795
796         if (*src == '"')
797         {
798             char quot_entity_literal[] = { '&', 'q', 'u', 'o', 't', ';' };  // no trailing NUL
799             str_append(output, quot_entity_literal, sizeof(quot_entity_literal));
800         }
801         else if (*src == '&')
802         {
803             char amp_entity_literal[] = { '&', 'a', 'm', 'p', ';' };    // no trailing NUL
804             str_append(output, amp_entity_literal, sizeof(amp_entity_literal));
805         }
806         else if (*src == '<' || *src == '>')
807             rb_raise(rb_eRangeError, "invalid link text (\"%c\" may not appear in link text)", *src);
808         else if (*src == ' ' && src == start && trim)
809             start++;                            // we eat leading space
810         else if (*src >= 0x20 && *src <= 0x7e)  // printable ASCII
811         {
812             *(output->ptr + output->len) = *src;
813             output->len++;
814         }
815         else    // all others: must convert to entities
816         {
817             long        width;
818             wiki_append_entity_from_utf32_char(output, wiki_utf8_to_utf32(src, end, &width));
819             src         += width;
820             non_space   = output->ptr + output->len;
821             continue;
822         }
823         if (*src != ' ')
824             non_space = output->ptr + output->len;
825         src++;
826     }
827
828     // trim trailing space if necessary
829     if (trim && output->ptr + output->len != non_space)
830         output->len -= (output->ptr + output->len) - non_space;
831 }
832
833 VALUE Wikitext_parser_sanitize_link_target(VALUE self, VALUE string)
834 {
835     parser_t parser;
836     parser.link_target = str_new_from_string(string);
837     GC_WRAP_STR(parser.link_target, link_target_gc);
838     str_t *output = str_new();
839     GC_WRAP_STR(output, output_gc);
840     wiki_append_sanitized_link_target(&parser, output, true);
841     return string_from_str(output);
842 }
843
844 // Encodes the parser link_target member (in-place) according to RFCs 2396 and 2718
845 //
846 // Leading and trailing whitespace trimmed. Spaces are converted to
847 // underscores if the parser space_to_underscore member is true.
848 static void wiki_encode_link_target(parser_t *parser)
849 {
850     char        *src        = parser->link_target->ptr;
851     char        *start      = src;  // remember this so we can check if we're at the start
852     long        len         = parser->link_target->len;
853     if (!(len > 0))
854         return;
855     char        *end        = src + len;
856     long        dest_len    = len * 2;
857     char        *dest       = ALLOC_N(char, dest_len);
858     char        *dest_ptr   = dest; // hang on to this so we can pass it to free() later
859     char        *non_space  = dest; // remember last non-space character output
860     static char hex[]       = { '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'a', 'b', 'c', 'd', 'e', 'f' };
861     for (; src < end; src++)
862     {
863         // worst case: a single character may grow to 3 characters once encoded
864         if ((dest + 3) > (dest_ptr + dest_len))
865         {
866             // outgrowing buffer, must reallocate
867             char *old_dest      = dest;
868             char *old_dest_ptr  = dest_ptr;
869             dest_len            += len;
870             dest                = realloc(dest_ptr, dest_len);
871             if (dest == NULL)
872             {
873                 // would have used reallocf, but this has to run on Linux too, not just Darwin
874                 free(dest_ptr);
875                 rb_raise(rb_eNoMemError, "failed to re-allocate temporary storage (memory allocation error)");
876             }
877             dest_ptr    = dest;
878             dest        = dest_ptr + (old_dest - old_dest_ptr);
879             non_space   = dest_ptr + (non_space - old_dest_ptr);
880         }
881
882         // pass through unreserved characters
883         if ((*src >= 'a' && *src <= 'z') ||
884             (*src >= 'A' && *src <= 'Z') ||
885             (*src >= '0' && *src <= '9') ||
886             *src == '-' ||
887             *src == '_' ||
888             *src == '.' ||
889             *src == '~')
890         {
891             *dest++     = *src;
892             non_space   = dest;
893         }
894         else if (*src == ' ' && src == start)
895             start++;                    // we eat leading space
896         else if (*src == ' ' && parser->space_to_underscore)
897             *dest++     = '_';
898         else    // everything else gets URL-encoded
899         {
900             *dest++     = '%';
901             *dest++     = hex[(unsigned char)(*src) / 16];   // left
902             *dest++     = hex[(unsigned char)(*src) % 16];   // right
903             if (*src != ' ')
904                 non_space = dest;
905         }
906     }
907
908     // trim trailing space if necessary
909     if (non_space > dest_ptr && dest != non_space)
910         dest_len = non_space - dest_ptr;
911     else
912         dest_len = dest - dest_ptr;
913     str_clear(parser->link_target);
914     str_append(parser->link_target, dest_ptr, dest_len);
915     free(dest_ptr);
916 }
917
918 VALUE Wikitext_parser_encode_link_target(VALUE self, VALUE in)
919 {
920     parser_t parser;
921     parser.space_to_underscore      = false;
922     parser.link_target              = str_new_from_string(in);
923     GC_WRAP_STR(parser.link_target, link_target_gc);
924     wiki_encode_link_target(&parser);
925     return string_from_str(parser.link_target);
926 }
927
928 // returns 1 (true) if supplied string is blank (nil, empty, or all whitespace)
929 // returns 0 (false) otherwise
930 bool wiki_blank(str_t *str)
931 {
932     if (str->len == 0)
933         return true;
934     for (char *ptr = str->ptr,
935         *end = str->ptr + str->len;
936         ptr < end; ptr++)
937     {
938         if (*ptr != ' ')
939             return false;
940     }
941     return true;
942 }
943
944 void wiki_rollback_failed_internal_link(parser_t *parser)
945 {
946     if (!IN(LINK_START))
947         return; // nothing to do!
948     int scope_includes_separator = IN(SEPARATOR);
949     wiki_pop_from_stack_up_to(parser, NULL, LINK_START, true);
950     str_append(parser->output, link_start, sizeof(link_start) - 1);
951     if (parser->link_target->len > 0)
952     {
953         wiki_append_sanitized_link_target(parser, parser->output, false);
954         if (scope_includes_separator)
955         {
956             str_append(parser->output, separator, sizeof(separator) - 1);
957             if (parser->link_text->len > 0)
958                 str_append_str(parser->output, parser->link_text);
959         }
960     }
961     parser->capture = NULL;
962     str_clear(parser->link_target);
963     str_clear(parser->link_text);
964 }
965
966 void wiki_rollback_failed_external_link(parser_t *parser)
967 {
968     if (!IN(EXT_LINK_START))
969         return; // nothing to do!
970
971     // store a couple of values before popping
972     int scope_includes_space = IN(SPACE);
973     VALUE link_class = IN(PATH) ? Qnil : parser->external_link_class;
974     VALUE link_rel   = IN(PATH) ? Qnil : parser->external_link_rel;
975     wiki_pop_from_stack_up_to(parser, NULL, EXT_LINK_START, true);
976
977     str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
978     if (parser->link_target->len > 0)
979     {
980         wiki_append_hyperlink(parser, Qnil, parser->link_target, NULL, link_class, link_rel, true);
981         if (scope_includes_space)
982         {
983             str_append(parser->output, space, sizeof(space) - 1);
984             if (parser->link_text->len > 0)
985                 str_append_str(parser->output, parser->link_text);
986         }
987     }
988     parser->capture = NULL;
989     str_clear(parser->link_target);
990     str_clear(parser->link_text);
991 }
992
993 void wiki_rollback_failed_link(parser_t *parser)
994 {
995     wiki_rollback_failed_internal_link(parser);
996     wiki_rollback_failed_external_link(parser);
997 }
998
999 VALUE Wikitext_parser_initialize(int argc, VALUE *argv, VALUE self)
1000 {
1001     // process arguments
1002     VALUE options;
1003     if (rb_scan_args(argc, argv, "01", &options) == 0) // 0 mandatory arguments, 1 optional argument
1004         options = Qnil;
1005
1006     // defaults
1007     VALUE autolink                      = Qtrue;
1008     VALUE line_ending                   = rb_str_new2("\n");
1009     VALUE external_link_class           = rb_str_new2("external");
1010     VALUE external_link_rel             = Qnil;
1011     VALUE mailto_class                  = rb_str_new2("mailto");
1012     VALUE internal_link_prefix          = rb_str_new2("/wiki/");
1013     VALUE img_prefix                    = rb_str_new2("/images/");
1014     VALUE output_style                  = ID2SYM(rb_intern("html"));
1015     VALUE space_to_underscore           = Qtrue;
1016     VALUE minimum_fulltext_token_length = INT2NUM(3);
1017     VALUE base_heading_level            = INT2NUM(0);
1018
1019     // process options hash (override defaults)
1020     if (!NIL_P(options) && TYPE(options) == T_HASH)
1021     {
1022 #define OVERRIDE_IF_SET(name)   rb_funcall(options, rb_intern("has_key?"), 1, ID2SYM(rb_intern(#name))) == Qtrue ? \
1023                                 rb_hash_aref(options, ID2SYM(rb_intern(#name))) : name
1024         autolink                        = OVERRIDE_IF_SET(autolink);
1025         line_ending                     = OVERRIDE_IF_SET(line_ending);
1026         external_link_class             = OVERRIDE_IF_SET(external_link_class);
1027         external_link_rel               = OVERRIDE_IF_SET(external_link_rel);
1028         mailto_class                    = OVERRIDE_IF_SET(mailto_class);
1029         internal_link_prefix            = OVERRIDE_IF_SET(internal_link_prefix);
1030         img_prefix                      = OVERRIDE_IF_SET(img_prefix);
1031         output_style                    = OVERRIDE_IF_SET(output_style);
1032         space_to_underscore             = OVERRIDE_IF_SET(space_to_underscore);
1033         minimum_fulltext_token_length   = OVERRIDE_IF_SET(minimum_fulltext_token_length);
1034         base_heading_level              = OVERRIDE_IF_SET(base_heading_level);
1035     }
1036
1037     // no need to call super here; rb_call_super()
1038     rb_iv_set(self, "@autolink",                        autolink);
1039     rb_iv_set(self, "@line_ending",                     line_ending);
1040     rb_iv_set(self, "@external_link_class",             external_link_class);
1041     rb_iv_set(self, "@external_link_rel",               external_link_rel);
1042     rb_iv_set(self, "@mailto_class",                    mailto_class);
1043     rb_iv_set(self, "@internal_link_prefix",            internal_link_prefix);
1044     rb_iv_set(self, "@img_prefix",                      img_prefix);
1045     rb_iv_set(self, "@output_style",                    output_style);
1046     rb_iv_set(self, "@space_to_underscore",             space_to_underscore);
1047     rb_iv_set(self, "@minimum_fulltext_token_length",   minimum_fulltext_token_length);
1048     rb_iv_set(self, "@base_heading_level",              base_heading_level);
1049     return self;
1050 }
1051
1052 VALUE Wikitext_parser_profiling_parse(VALUE self, VALUE string)
1053 {
1054     for (int i = 0; i < 100000; i++)
1055         Wikitext_parser_parse(1, &string, self);
1056     return Qnil;
1057 }
1058
1059 // convert a Ruby object (:xml, :html etc) into an int output style
1060 int Wikitext_output_style(VALUE output)
1061 {
1062     if (TYPE(output) == T_SYMBOL)
1063     {
1064         if (SYM2ID(output) == rb_intern("xml"))
1065             return XML_OUTPUT;
1066     }
1067     return HTML_OUTPUT; // fall back to default
1068 }
1069
1070 VALUE Wikitext_parser_parse(int argc, VALUE *argv, VALUE self)
1071 {
1072     // process arguments
1073     VALUE string, options;
1074     if (rb_scan_args(argc, argv, "11", &string, &options) == 1) // 1 mandatory argument, 1 optional argument
1075         options = Qnil;
1076     if (NIL_P(string))
1077         return Qnil;
1078     string = StringValue(string);
1079
1080     // access these once per parse
1081     VALUE line_ending   = rb_iv_get(self, "@line_ending");
1082     line_ending         = StringValue(line_ending);
1083     VALUE link_class    = rb_iv_get(self, "@external_link_class");
1084     link_class          = NIL_P(link_class) ? Qnil : StringValue(link_class);
1085     VALUE link_rel      = rb_iv_get(self, "@external_link_rel");
1086     link_rel            = NIL_P(link_rel) ? Qnil : StringValue(link_rel);
1087     VALUE mailto_class  = rb_iv_get(self, "@mailto_class");
1088     mailto_class        = NIL_P(mailto_class) ? Qnil : StringValue(mailto_class);
1089     VALUE prefix        = rb_iv_get(self, "@internal_link_prefix");
1090     int output_style    = Wikitext_output_style(rb_iv_get(self, "@output_style"));
1091
1092     // process options hash
1093     int base_indent = 0;
1094     int base_heading_level = NUM2INT(rb_iv_get(self, "@base_heading_level"));
1095     VALUE link_proc = Qnil;
1096     if (!NIL_P(options) && TYPE(options) == T_HASH)
1097     {
1098         // :indent => 0 (or more)
1099         ID has_key = rb_intern("has_key?");
1100         ID id = ID2SYM(rb_intern("indent"));
1101         if (rb_funcall(options, has_key, 1, id) == Qtrue)
1102         {
1103             VALUE indent = rb_hash_aref(options, id);
1104             if (indent == Qfalse)
1105                 base_indent = -1; // indentation disabled
1106             else
1107             {
1108                 base_indent = NUM2INT(indent);
1109                 if (base_indent < 0)
1110                     base_indent = 0;
1111             }
1112         }
1113
1114         // :base_heading_level => 0/1/2/3/4/5/6
1115         id = ID2SYM(rb_intern("base_heading_level"));
1116         if (rb_funcall(options, has_key, 1, id) == Qtrue)
1117             base_heading_level = NUM2INT(rb_hash_aref(options, id));
1118
1119         // :output_style => :html/:xml
1120         id = ID2SYM(rb_intern("output_style"));
1121         if (rb_funcall(options, has_key, 1, id) == Qtrue)
1122             output_style = Wikitext_output_style(rb_hash_aref(options, id));
1123
1124         // :link_proc => lambda { |link_target| ... }
1125         id = ID2SYM(rb_intern("link_proc"));
1126         if (rb_funcall(options, has_key, 1, id) == Qtrue)
1127             link_proc = rb_hash_aref(options, id);
1128     }
1129
1130     // normalize, regardless of whether this came from instance variable or override
1131     if (base_heading_level < 0)
1132         base_heading_level = 0;
1133     if (base_heading_level > 6)
1134         base_heading_level = 6;
1135
1136     // set up scanner
1137     char *p = RSTRING_PTR(string);
1138     long len = RSTRING_LEN(string);
1139     char *pe = p + len;
1140
1141     // set up parser struct to make passing parameters a little easier
1142     parser_t *parser                = parser_new();
1143     GC_WRAP_PARSER(parser, parser_gc);
1144     parser->external_link_class     = link_class;
1145     parser->external_link_rel       = link_rel;
1146     parser->mailto_class            = mailto_class;
1147     parser->img_prefix              = rb_iv_get(self, "@img_prefix");
1148     parser->autolink                = rb_iv_get(self, "@autolink") == Qtrue ? true : false;
1149     parser->space_to_underscore     = rb_iv_get(self, "@space_to_underscore") == Qtrue ? true : false;
1150     parser->line_ending             = str_new_from_string(line_ending);
1151     parser->base_indent             = base_indent;
1152     parser->base_heading_level      = base_heading_level;
1153     parser->output_style            = output_style;
1154
1155     // this simple looping design leads to a single enormous function,
1156     // but it's faster than doing actual recursive descent and also secure in the face of
1157     // malicious input that seeks to overflow the stack
1158     // (with "<blockquote><blockquote><blockquote>..." times by 10,000, for example)
1159     // given that we expect to deal with a lot of malformed input, a recursive descent design is less appropriate
1160     // than a straightforward looping translator like this one anyway
1161     token_t _token;
1162     _token.type = NO_TOKEN;
1163     token_t *token = NULL;
1164     do
1165     {
1166         // note that whenever we grab a token we push it into the line buffer
1167         // this provides us with context-sensitive "memory" of what's been seen so far on this line
1168 #define NEXT_TOKEN()    token = &_token, next_token(token, token, NULL, pe), ary_push(parser->line_buffer, token->type)
1169
1170         // check to see if we have a token hanging around from a previous iteration of this loop
1171         if (token == NULL)
1172         {
1173             if (_token.type == NO_TOKEN)
1174             {
1175                 // first time here (haven't started scanning yet)
1176                 token = &_token;
1177                 next_token(token, NULL, p, pe);
1178                 ary_push(parser->line_buffer, token->type);
1179             }
1180             else
1181                 // already scanning
1182                 NEXT_TOKEN();
1183         }
1184         int type = token->type;
1185
1186         // can't declare new variables inside a switch statement, so predeclare them here
1187         long remove_strong          = -1;
1188         long remove_em              = -1;
1189
1190         // general purpose counters, flags and pointers
1191         long i                      = 0;
1192         long j                      = 0;
1193         long k                      = 0;
1194         str_t *output               = NULL;
1195         str_t _token_str;
1196         str_t *token_str            = &_token_str;
1197
1198         // The following giant switch statement contains cases for all the possible token types.
1199         // In the most basic sense we are emitting the HTML that corresponds to each token,
1200         // but some tokens require context information in order to decide what to output.
1201         // For example, does the STRONG token (''') translate to <strong> or </strong>?
1202         // So when looking at any given token we have three state-maintaining variables which gives us a notion of "where we are":
1203         //
1204         //  - the "scope" stack (indicates what HTML DOM structures we are currently nested inside, similar to a CSS selector)
1205         //  - the line buffer (records tokens seen so far on the current line)
1206         //  - the line "scope" stack (indicates what the scope should be based only on what is visible on the line so far)
1207         //
1208         // Although this is fairly complicated, there is one key simplifying factor:
1209         // The translator continuously performs auto-correction, and this means that we always have a guarantee that the
1210         // scope stack (up to the current token) is valid; our translator can take this as a given.
1211         // Auto-correction basically consists of inserting missing tokens (preventing subsquent HTML from being messed up),
1212         // or converting illegal (unexpected) tokens to their plain text equivalents (providing visual feedback to Wikitext author).
1213         switch (type)
1214         {
1215             case PRE:
1216                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1217                 {
1218                     str_append(parser->output, space, sizeof(space) - 1);
1219                     break;
1220                 }
1221                 else if (IN(BLOCKQUOTE_START))
1222                 {
1223                     // this kind of nesting not allowed (to avoid user confusion)
1224                     wiki_pop_excess_elements(parser);
1225                     wiki_start_para_if_necessary(parser);
1226                     output = parser->capture ? parser->capture : parser->output;
1227                     str_append(output, space, sizeof(space) - 1);
1228                     break;
1229                 }
1230
1231                 // count number of BLOCKQUOTE tokens in line buffer and in scope stack
1232                 ary_push(parser->line, PRE);
1233                 i = ary_count(parser->line, BLOCKQUOTE);
1234                 j = ary_count(parser->scope, BLOCKQUOTE);
1235                 if (i < j)
1236                 {
1237                     // must pop (reduce nesting level)
1238                     for (i = j - i; i > 0; i--)
1239                         wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, true);
1240                 }
1241
1242                 if (!IN(PRE))
1243                 {
1244                     parser->pending_crlf = false;
1245                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1246                     wiki_indent(parser);
1247                     str_append(parser->output, pre_start, sizeof(pre_start) - 1);
1248                     ary_push(parser->scope, PRE);
1249                 }
1250                 break;
1251
1252             case PRE_START:
1253                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1254                 {
1255                     wiki_emit_pending_crlf_if_necessary(parser);
1256                     str_append(parser->output, escaped_pre_start, sizeof(escaped_pre_start) - 1);
1257                 }
1258                 else if (IN(BLOCKQUOTE_START))
1259                 {
1260                     wiki_rollback_failed_link(parser); // if any
1261                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1262                     wiki_append_pre_start(parser, token);
1263                 }
1264                 else if (IN(BLOCKQUOTE))
1265                 {
1266                     if (token->column_start == 1) // only allowed in first column
1267                     {
1268                         wiki_rollback_failed_link(parser); // if any
1269                         wiki_pop_all_from_stack(parser);
1270                         wiki_append_pre_start(parser, token);
1271                     }
1272                     else // PRE_START illegal here
1273                     {
1274                         output = parser->capture ? parser->capture : parser->output;
1275                         wiki_pop_excess_elements(parser);
1276                         wiki_start_para_if_necessary(parser);
1277                         str_append(output, escaped_pre_start, sizeof(escaped_pre_start) - 1);
1278                     }
1279                 }
1280                 else
1281                 {
1282                     wiki_rollback_failed_link(parser); // if any
1283                     wiki_pop_from_stack_up_to(parser, NULL, P, true);
1284                     wiki_append_pre_start(parser, token);
1285                 }
1286                 break;
1287
1288             case PRE_END:
1289                 if (IN_EITHER_OF(NO_WIKI_START, PRE))
1290                 {
1291                     wiki_emit_pending_crlf_if_necessary(parser);
1292                     str_append(parser->output, escaped_pre_end, sizeof(escaped_pre_end) - 1);
1293                 }
1294                 else
1295                 {
1296                     if (IN(PRE_START))
1297                         wiki_pop_from_stack_up_to(parser, parser->output, PRE_START, true);
1298                     else
1299                     {
1300                         output = parser->capture ? parser->capture : parser->output;
1301                         wiki_pop_excess_elements(parser);
1302                         wiki_start_para_if_necessary(parser);
1303                         str_append(output, escaped_pre_end, sizeof(escaped_pre_end) - 1);
1304                     }
1305                 }
1306                 break;
1307
1308             case BLOCKQUOTE:
1309                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1310                     // no need to check for <pre>; can never appear inside it
1311                     str_append(parser->output, escaped_blockquote, TOKEN_LEN(token) + 3); // will either emit "&gt;" or "&gt; "
1312                 else if (IN(BLOCKQUOTE_START))
1313                 {
1314                     // this kind of nesting not allowed (to avoid user confusion)
1315                     wiki_pop_excess_elements(parser);
1316                     wiki_start_para_if_necessary(parser);
1317                     output = parser->capture ? parser->capture : parser->output;
1318                     str_append(output, escaped_blockquote, TOKEN_LEN(token) + 3); // will either emit "&gt;" or "&gt; "
1319                     break;
1320                 }
1321                 else
1322                 {
1323                     ary_push(parser->line, BLOCKQUOTE);
1324
1325                     // count number of BLOCKQUOTE tokens in line buffer and in scope stack
1326                     i = ary_count(parser->line, BLOCKQUOTE);
1327                     j = ary_count(parser->scope, BLOCKQUOTE);
1328
1329                     // given that BLOCKQUOTE tokens can be nested, peek ahead and see if there are any more which might affect the decision to push or pop
1330                     while (NEXT_TOKEN(), (token->type == BLOCKQUOTE))
1331                     {
1332                         ary_push(parser->line, BLOCKQUOTE);
1333                         i++;
1334                     }
1335
1336                     // now decide whether to push, pop or do nothing
1337                     if (i > j)
1338                     {
1339                         // must push (increase nesting level)
1340                         wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1341                         for (i = i - j; i > 0; i--)
1342                         {
1343                             wiki_indent(parser);
1344                             str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1345                             str_append_str(parser->output, parser->line_ending);
1346                             ary_push(parser->scope, BLOCKQUOTE);
1347                         }
1348                     }
1349                     else if (i < j)
1350                     {
1351                         // must pop (reduce nesting level)
1352                         for (i = j - i; i > 0; i--)
1353                             wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, true);
1354                     }
1355
1356                     // jump to top of the loop to process token we scanned during lookahead
1357                     continue;
1358                 }
1359                 break;
1360
1361             case BLOCKQUOTE_START:
1362                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1363                 {
1364                     wiki_emit_pending_crlf_if_necessary(parser);
1365                     str_append(parser->output, escaped_blockquote_start, sizeof(escaped_blockquote_start) - 1);
1366                 }
1367                 else if (IN(BLOCKQUOTE_START))
1368                 {
1369                     // nesting is fine here
1370                     wiki_rollback_failed_link(parser); // if any
1371                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1372                     wiki_indent(parser);
1373                     str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1374                     str_append_str(parser->output, parser->line_ending);
1375                     ary_push(parser->scope, BLOCKQUOTE_START);
1376                     ary_push(parser->line, BLOCKQUOTE_START);
1377                 }
1378                 else if (IN(BLOCKQUOTE))
1379                 {
1380                     if (token->column_start == 1) // only allowed in first column
1381                     {
1382                         wiki_rollback_failed_link(parser); // if any
1383                         wiki_pop_all_from_stack(parser);
1384                         wiki_indent(parser);
1385                         str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1386                         str_append_str(parser->output, parser->line_ending);
1387                         ary_push(parser->scope, BLOCKQUOTE_START);
1388                         ary_push(parser->line, BLOCKQUOTE_START);
1389                     }
1390                     else // BLOCKQUOTE_START illegal here
1391                     {
1392                         output = parser->capture ? parser->capture : parser->output;
1393                         wiki_pop_excess_elements(parser);
1394                         wiki_start_para_if_necessary(parser);
1395                         str_append(output, escaped_blockquote_start, sizeof(escaped_blockquote_start) - 1);
1396                     }
1397                 }
1398                 else
1399                 {
1400                     // would be nice to eliminate the repetition here but it's probably the clearest way
1401                     wiki_rollback_failed_link(parser); // if any
1402                     wiki_pop_from_stack_up_to(parser, NULL, P, true);
1403                     wiki_indent(parser);
1404                     str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1405                     str_append_str(parser->output, parser->line_ending);
1406                     ary_push(parser->scope, BLOCKQUOTE_START);
1407                     ary_push(parser->line, BLOCKQUOTE_START);
1408                 }
1409                 break;
1410
1411             case BLOCKQUOTE_END:
1412                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1413                 {
1414                     wiki_emit_pending_crlf_if_necessary(parser);
1415                     str_append(parser->output, escaped_blockquote_end, sizeof(escaped_blockquote_end) - 1);
1416                 }
1417                 else
1418                 {
1419                     if (IN(BLOCKQUOTE_START))
1420                         wiki_pop_from_stack_up_to(parser, parser->output, BLOCKQUOTE_START, true);
1421                     else
1422                     {
1423                         output = parser->capture ? parser->capture : parser->output;
1424                         wiki_pop_excess_elements(parser);
1425                         wiki_start_para_if_necessary(parser);
1426                         str_append(output, escaped_blockquote_end, sizeof(escaped_blockquote_end) - 1);
1427                     }
1428                 }
1429                 break;
1430
1431             case NO_WIKI_START:
1432                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1433                 {
1434                     wiki_emit_pending_crlf_if_necessary(parser);
1435                     str_append(parser->output, escaped_no_wiki_start, sizeof(escaped_no_wiki_start) - 1);
1436                 }
1437                 else
1438                 {
1439                     wiki_pop_excess_elements(parser);
1440                     wiki_start_para_if_necessary(parser);
1441                     ary_push(parser->scope, NO_WIKI_START);
1442                     ary_push(parser->line, NO_WIKI_START);
1443                 }
1444                 break;
1445
1446             case NO_WIKI_END:
1447                 if (IN(NO_WIKI_START))
1448                     // <nowiki> should always only ever be the last item in the stack, but use the helper routine just in case
1449                     wiki_pop_from_stack_up_to(parser, NULL, NO_WIKI_START, true);
1450                 else
1451                 {
1452                     wiki_pop_excess_elements(parser);
1453                     wiki_start_para_if_necessary(parser);
1454                     str_append(parser->output, escaped_no_wiki_end, sizeof(escaped_no_wiki_end) - 1);
1455                 }
1456                 break;
1457
1458             case STRONG_EM:
1459                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1460                 {
1461                     wiki_emit_pending_crlf_if_necessary(parser);
1462                     str_append(parser->output, literal_strong_em, sizeof(literal_strong_em) - 1);
1463                     break;
1464                 }
1465
1466                 output = parser->capture ? parser->capture : parser->output;
1467                 wiki_pop_excess_elements(parser);
1468
1469                 // if you've seen STRONG/STRONG_START or EM/EM_START, must close them in the reverse order that you saw them!
1470                 // otherwise, must open them
1471                 remove_strong  = -1;
1472                 remove_em      = -1;
1473                 j              = parser->scope->count;
1474                 for (j = j - 1; j >= 0; j--)
1475                 {
1476                     int val = ary_entry(parser->scope, j);
1477                     if (val == STRONG || val == STRONG_START)
1478                     {
1479                         str_append(output, strong_end, sizeof(strong_end) - 1);
1480                         remove_strong = j;
1481                     }
1482                     else if (val == EM || val == EM_START)
1483                     {
1484                         str_append(output, em_end, sizeof(em_end) - 1);
1485                         remove_em = j;
1486                     }
1487                 }
1488
1489                 if (remove_strong > remove_em)      // must remove strong first
1490                 {
1491                     ary_pop(parser->scope);
1492                     if (remove_em > -1)
1493                         ary_pop(parser->scope);
1494                     else    // there was no em to remove!, so consider this an opening em tag
1495                     {
1496                         str_append(output, em_start, sizeof(em_start) - 1);
1497                         ary_push(parser->scope, EM);
1498                         ary_push(parser->line, EM);
1499                     }
1500                 }
1501                 else if (remove_em > remove_strong) // must remove em first
1502                 {
1503                     ary_pop(parser->scope);
1504                     if (remove_strong > -1)
1505                         ary_pop(parser->scope);
1506                     else    // there was no strong to remove!, so consider this an opening strong tag
1507                     {
1508                         str_append(output, strong_start, sizeof(strong_start) - 1);
1509                         ary_push(parser->scope, STRONG);
1510                         ary_push(parser->line, STRONG);
1511                     }
1512                 }
1513                 else    // no strong or em to remove, so this must be a new opening of both
1514                 {
1515                     wiki_start_para_if_necessary(parser);
1516                     str_append(output, strong_em_start, sizeof(strong_em_start) - 1);
1517                     ary_push(parser->scope, STRONG);
1518                     ary_push(parser->line, STRONG);
1519                     ary_push(parser->scope, EM);
1520                     ary_push(parser->line, EM);
1521                 }
1522                 break;
1523
1524             case STRONG:
1525                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1526                 {
1527                     wiki_emit_pending_crlf_if_necessary(parser);
1528                     str_append(parser->output, literal_strong, sizeof(literal_strong) - 1);
1529                 }
1530                 else
1531                 {
1532                     output = parser->capture ? parser->capture : parser->output;
1533                     if (IN(STRONG_START))
1534                         // already in span started with <strong>, no choice but to emit this literally
1535                         str_append(output, literal_strong, sizeof(literal_strong) - 1);
1536                     else if (IN(STRONG))
1537                         // STRONG already seen, this is a closing tag
1538                         wiki_pop_from_stack_up_to(parser, output, STRONG, true);
1539                     else
1540                     {
1541                         // this is a new opening
1542                         wiki_pop_excess_elements(parser);
1543                         wiki_start_para_if_necessary(parser);
1544                         str_append(output, strong_start, sizeof(strong_start) - 1);
1545                         ary_push(parser->scope, STRONG);
1546                         ary_push(parser->line, STRONG);
1547                     }
1548                 }
1549                 break;
1550
1551             case STRONG_START:
1552                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1553                 {
1554                     wiki_emit_pending_crlf_if_necessary(parser);
1555                     str_append(parser->output, escaped_strong_start, sizeof(escaped_strong_start) - 1);
1556                 }
1557                 else
1558                 {
1559                     output = parser->capture ? parser->capture : parser->output;
1560                     if (IN_EITHER_OF(STRONG_START, STRONG))
1561                         str_append(output, escaped_strong_start, sizeof(escaped_strong_start) - 1);
1562                     else
1563                     {
1564                         wiki_pop_excess_elements(parser);
1565                         wiki_start_para_if_necessary(parser);
1566                         str_append(output, strong_start, sizeof(strong_start) - 1);
1567                         ary_push(parser->scope, STRONG_START);
1568                         ary_push(parser->line, STRONG_START);
1569                     }
1570                 }
1571                 break;
1572
1573             case STRONG_END:
1574                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1575                 {
1576                     wiki_emit_pending_crlf_if_necessary(parser);
1577                     str_append(parser->output, escaped_strong_end, sizeof(escaped_strong_end) - 1);
1578                 }
1579                 else
1580                 {
1581                     output = parser->capture ? parser->capture : parser->output;
1582                     if (IN(STRONG_START))
1583                         wiki_pop_from_stack_up_to(parser, output, STRONG_START, true);
1584                     else
1585                     {
1586                         // no STRONG_START in scope, so must interpret the STRONG_END without any special meaning
1587                         wiki_pop_excess_elements(parser);
1588                         wiki_start_para_if_necessary(parser);
1589                         str_append(output, escaped_strong_end, sizeof(escaped_strong_end) - 1);
1590                     }
1591                 }
1592                 break;
1593
1594             case EM:
1595                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1596                 {
1597                     wiki_emit_pending_crlf_if_necessary(parser);
1598                     str_append(parser->output, literal_em, sizeof(literal_em) - 1);
1599                 }
1600                 else
1601                 {
1602                     output = parser->capture ? parser->capture : parser->output;
1603                     if (IN(EM_START))
1604                         // already in span started with <em>, no choice but to emit this literally
1605                         str_append(output, literal_em, sizeof(literal_em) - 1);
1606                     else if (IN(EM))
1607                         // EM already seen, this is a closing tag
1608                         wiki_pop_from_stack_up_to(parser, output, EM, true);
1609                     else
1610                     {
1611                         // this is a new opening
1612                         wiki_pop_excess_elements(parser);
1613                         wiki_start_para_if_necessary(parser);
1614                         str_append(output, em_start, sizeof(em_start) - 1);
1615                         ary_push(parser->scope, EM);
1616                         ary_push(parser->line, EM);
1617                     }
1618                 }
1619                 break;
1620
1621             case EM_START:
1622                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1623                 {
1624                     wiki_emit_pending_crlf_if_necessary(parser);
1625                     str_append(parser->output, escaped_em_start, sizeof(escaped_em_start) - 1);
1626                 }
1627                 else
1628                 {
1629                     output = parser->capture ? parser->capture : parser->output;
1630                     if (IN_EITHER_OF(EM_START, EM))
1631                         str_append(output, escaped_em_start, sizeof(escaped_em_start) - 1);
1632                     else
1633                     {
1634                         wiki_pop_excess_elements(parser);
1635                         wiki_start_para_if_necessary(parser);
1636                         str_append(output, em_start, sizeof(em_start) - 1);
1637                         ary_push(parser->scope, EM_START);
1638                         ary_push(parser->line, EM_START);
1639                     }
1640                 }
1641                 break;
1642
1643             case EM_END:
1644                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1645                 {
1646                     wiki_emit_pending_crlf_if_necessary(parser);
1647                     str_append(parser->output, escaped_em_end, sizeof(escaped_em_end) - 1);
1648                 }
1649                 else
1650                 {
1651                     output = parser->capture ? parser->capture : parser->output;
1652                     if (IN(EM_START))
1653                         wiki_pop_from_stack_up_to(parser, output, EM_START, true);
1654                     else
1655                     {
1656                         // no EM_START in scope, so must interpret the EM_END without any special meaning
1657                         wiki_pop_excess_elements(parser);
1658                         wiki_start_para_if_necessary(parser);
1659                         str_append(output, escaped_em_end, sizeof(escaped_em_end) - 1);
1660                     }
1661                 }
1662                 break;
1663
1664             case TT:
1665                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1666                 {
1667                     wiki_emit_pending_crlf_if_necessary(parser);
1668                     str_append(parser->output, backtick, sizeof(backtick) - 1);
1669                 }
1670                 else
1671                 {
1672                     output = parser->capture ? parser->capture : parser->output;
1673                     if (IN(TT_START))
1674                         // already in span started with <tt>, no choice but to emit this literally
1675                         str_append(output, backtick, sizeof(backtick) - 1);
1676                     else if (IN(TT))
1677                         // TT (`) already seen, this is a closing tag
1678                         wiki_pop_from_stack_up_to(parser, output, TT, true);
1679                     else
1680                     {
1681                         // this is a new opening
1682                         wiki_pop_excess_elements(parser);
1683                         wiki_start_para_if_necessary(parser);
1684                         str_append(output, code_start, sizeof(code_start) - 1);
1685                         ary_push(parser->scope, TT);
1686                         ary_push(parser->line, TT);
1687                     }
1688                 }
1689                 break;
1690
1691             case TT_START:
1692                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1693                 {
1694                     wiki_emit_pending_crlf_if_necessary(parser);
1695                     str_append(parser->output, escaped_tt_start, sizeof(escaped_tt_start) - 1);
1696                 }
1697                 else
1698                 {
1699                     output = parser->capture ? parser->capture : parser->output;
1700                     if (IN_EITHER_OF(TT_START, TT))
1701                         str_append(output, escaped_tt_start, sizeof(escaped_tt_start) - 1);
1702                     else
1703                     {
1704                         wiki_pop_excess_elements(parser);
1705                         wiki_start_para_if_necessary(parser);
1706                         str_append(output, code_start, sizeof(code_start) - 1);
1707                         ary_push(parser->scope, TT_START);
1708                         ary_push(parser->line, TT_START);
1709                     }
1710                 }
1711                 break;
1712
1713             case TT_END:
1714                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1715                 {
1716                     wiki_emit_pending_crlf_if_necessary(parser);
1717                     str_append(parser->output, escaped_tt_end, sizeof(escaped_tt_end) - 1);
1718                 }
1719                 else
1720                 {
1721                     output = parser->capture ? parser->capture : parser->output;
1722                     if (IN(TT_START))
1723                         wiki_pop_from_stack_up_to(parser, output, TT_START, true);
1724                     else
1725                     {
1726                         // no TT_START in scope, so must interpret the TT_END without any special meaning
1727                         wiki_pop_excess_elements(parser);
1728                         wiki_start_para_if_necessary(parser);
1729                         str_append(output, escaped_tt_end, sizeof(escaped_tt_end) - 1);
1730                     }
1731                 }
1732                 break;
1733
1734             case OL:
1735             case UL:
1736                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1737                 {
1738                     // no need to check for PRE; can never appear inside it
1739                     str_append(parser->output, token->start, TOKEN_LEN(token));
1740                     break;
1741                 }
1742
1743                 // count number of tokens in line and scope stacks
1744                 int bq_count = ary_count(parser->scope, BLOCKQUOTE_START);
1745                 i = parser->line->count - ary_count(parser->line, BLOCKQUOTE_START);
1746                 j = parser->scope->count - bq_count;
1747                 k = i;
1748
1749                 // list tokens can be nested so look ahead for any more which might affect the decision to push or pop
1750                 for (;;)
1751                 {
1752                     type = token->type;
1753                     if (type == OL || type == UL)
1754                     {
1755                         token = NULL;
1756                         if (i - k >= 2)                             // already seen at least one OL or UL
1757                         {
1758                             ary_push(parser->line, NESTED_LIST);    // which means this is a nested list
1759                             i += 3;
1760                         }
1761                         else
1762                             i += 2;
1763                         ary_push(parser->line, type);
1764                         ary_push(parser->line, LI);
1765
1766                         // want to compare line with scope but can only do so if scope has enough items on it
1767                         if (j >= i)
1768                         {
1769                             if (ary_entry(parser->scope, i + bq_count - 2) == type &&
1770                                 ary_entry(parser->scope, i + bq_count - 1) == LI)
1771                             {
1772                                 // line and scope match at this point: do nothing yet
1773                             }
1774                             else
1775                             {
1776                                 // item just pushed onto line does not match corresponding slot of scope!
1777                                 for (; j >= i - 2; j--)
1778                                     // must pop back before emitting
1779                                     wiki_pop_from_stack(parser, NULL);
1780
1781                                 // will emit UL or OL, then LI
1782                                 break;
1783                             }
1784                         }
1785                         else        // line stack size now exceeds scope stack size: must increase nesting level
1786                             break;  // will emit UL or OL, then LI
1787                     }
1788                     else
1789                     {
1790                         // not a OL or UL token!
1791                         if (j == i)
1792                             // must close existing LI and re-open new one
1793                             wiki_pop_from_stack(parser, NULL);
1794                         else if (j > i)
1795                         {
1796                             // item just pushed onto line does not match corresponding slot of scope!
1797                             for (; j >= i; j--)
1798                                 // must pop back before emitting
1799                                 wiki_pop_from_stack(parser, NULL);
1800                         }
1801                         break;
1802                     }
1803                     NEXT_TOKEN();
1804                 }
1805
1806                 // will emit
1807                 if (type == OL || type == UL)
1808                 {
1809                     // if LI is at the top of a stack this is the start of a nested list
1810                     if (j > 0 && ary_entry(parser->scope, -1) == LI)
1811                     {
1812                         // so we should precede it with a CRLF, and indicate that it's a nested list
1813                         str_append(parser->output, parser->line_ending->ptr, parser->line_ending->len);
1814                         ary_push(parser->scope, NESTED_LIST);
1815                     }
1816                     else
1817                     {
1818                         // this is a new list
1819                         if (IN(BLOCKQUOTE_START))
1820                             wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1821                         else
1822                             wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1823                     }
1824
1825                     // emit
1826                     wiki_indent(parser);
1827                     if (type == OL)
1828                         str_append(parser->output, ol_start, sizeof(ol_start) - 1);
1829                     else if (type == UL)
1830                         str_append(parser->output, ul_start, sizeof(ul_start) - 1);
1831                     ary_push(parser->scope, type);
1832                     str_append(parser->output, parser->line_ending->ptr, parser->line_ending->len);
1833                 }
1834                 else if (type == SPACE)
1835                     // silently throw away the optional SPACE token after final list marker
1836                     token = NULL;
1837
1838                 wiki_indent(parser);
1839                 str_append(parser->output, li_start, sizeof(li_start) - 1);
1840                 ary_push(parser->scope, LI);
1841
1842                 // any subsequent UL or OL tokens on this line are syntax errors and must be emitted literally
1843                 if (type == OL || type == UL)
1844                 {
1845                     k = 0;
1846                     while (k++, NEXT_TOKEN(), (type = token->type))
1847                     {
1848                         if (type == OL || type == UL)
1849                             str_append(parser->output, token->start, TOKEN_LEN(token));
1850                         else if (type == SPACE && k == 1)
1851                         {
1852                             // silently throw away the optional SPACE token after final list marker
1853                             token = NULL;
1854                             break;
1855                         }
1856                         else
1857                             break;
1858                     }
1859                 }
1860
1861                 // jump to top of the loop to process token we scanned during lookahead
1862                 continue;
1863
1864             case H6_START:
1865             case H5_START:
1866             case H4_START:
1867             case H3_START:
1868             case H2_START:
1869             case H1_START:
1870                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1871                 {
1872                     // no need to check for PRE; can never appear inside it
1873                     str_append(parser->output, token->start, TOKEN_LEN(token));
1874                     break;
1875                 }
1876
1877                 // pop up to but not including the last BLOCKQUOTE on the scope stack
1878                 if (IN(BLOCKQUOTE_START))
1879                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1880                 else
1881                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1882
1883                 // count number of BLOCKQUOTE tokens in line buffer and in scope stack
1884                 ary_push(parser->line, type);
1885                 i = ary_count(parser->line, BLOCKQUOTE);
1886                 j = ary_count(parser->scope, BLOCKQUOTE);
1887
1888                 // decide whether we need to pop off excess BLOCKQUOTE tokens (will never need to push; that is handled above in the BLOCKQUOTE case itself)
1889                 if (i < j)
1890                 {
1891                     // must pop (reduce nesting level)
1892                     for (i = j - i; i > 0; i--)
1893                         wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, true);
1894                 }
1895
1896                 // discard any whitespace here (so that "== foo ==" will be translated to "<h2>foo</h2>" rather than "<h2> foo </h2")
1897                 while (NEXT_TOKEN(), (token->type == SPACE))
1898                     ; // discard
1899
1900                 ary_push(parser->scope, type);
1901                 wiki_indent(parser);
1902
1903                 // take base_heading_level into account
1904                 type += base_heading_level;
1905                 if (type > H6_START) // no need to check for underflow (base_heading_level never negative)
1906                     type = H6_START;
1907
1908                 // rather than repeat all that code for each kind of heading, share it and use a conditional here
1909                 if (type == H6_START)
1910                     str_append(parser->output, h6_start, sizeof(h6_start) - 1);
1911                 else if (type == H5_START)
1912                     str_append(parser->output, h5_start, sizeof(h5_start) - 1);
1913                 else if (type == H4_START)
1914                     str_append(parser->output, h4_start, sizeof(h4_start) - 1);
1915                 else if (type == H3_START)
1916                     str_append(parser->output, h3_start, sizeof(h3_start) - 1);
1917                 else if (type == H2_START)
1918                     str_append(parser->output, h2_start, sizeof(h2_start) - 1);
1919                 else if (type == H1_START)
1920                     str_append(parser->output, h1_start, sizeof(h1_start) - 1);
1921
1922                 // jump to top of the loop to process token we scanned during lookahead
1923                 continue;
1924
1925             case H6_END:
1926             case H5_END:
1927             case H4_END:
1928             case H3_END:
1929             case H2_END:
1930             case H1_END:
1931                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1932                 {
1933                     wiki_emit_pending_crlf_if_necessary(parser);
1934                     str_append(parser->output, token->start, TOKEN_LEN(token));
1935                 }
1936                 else
1937                 {
1938                     wiki_rollback_failed_external_link(parser); // if any
1939                     if ((type == H6_END && !IN(H6_START)) ||
1940                         (type == H5_END && !IN(H5_START)) ||
1941                         (type == H4_END && !IN(H4_START)) ||
1942                         (type == H3_END && !IN(H3_START)) ||
1943                         (type == H2_END && !IN(H2_START)) ||
1944                         (type == H1_END && !IN(H1_START)))
1945                     {
1946                         // literal output only if not in appropriate scope (we stay silent in that case)
1947                         wiki_start_para_if_necessary(parser);
1948                         str_append(parser->output, token->start, TOKEN_LEN(token));
1949                     }
1950                 }
1951                 break;
1952
1953             case MAIL:
1954                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1955                 {
1956                     wiki_emit_pending_crlf_if_necessary(parser);
1957                     str_append(parser->output, token->start, TOKEN_LEN(token));
1958                 }
1959                 else
1960                 {
1961                     wiki_pop_excess_elements(parser);
1962                     wiki_start_para_if_necessary(parser);
1963                     token_str->ptr = token->start;
1964                     token_str->len = TOKEN_LEN(token);
1965                     wiki_append_hyperlink(parser, rb_str_new2("mailto:"), token_str, NULL, mailto_class, Qnil, true);
1966                 }
1967                 break;
1968
1969             case URI:
1970                 if (IN(NO_WIKI_START))
1971                     // user can temporarily suppress autolinking by using <nowiki></nowiki>
1972                     // note that unlike MediaWiki, we do allow autolinking inside PRE blocks
1973                     str_append(parser->output, token->start, TOKEN_LEN(token));
1974                 else if (IN(LINK_START))
1975                 {
1976                     // if the URI were allowed it would have been handled already in LINK_START
1977                     wiki_rollback_failed_internal_link(parser);
1978                     token_str->ptr = token->start;
1979                     token_str->len = TOKEN_LEN(token);
1980                     wiki_append_hyperlink(parser, Qnil, token_str, NULL, parser->external_link_class, parser->external_link_rel, true);
1981                 }
1982                 else if (IN(EXT_LINK_START))
1983                 {
1984                     if (parser->link_target->len == 0)
1985                     {
1986                         // this must be our link target: look ahead to make sure we see the space we're expecting to see
1987                         token_str->ptr = token->start;
1988                         token_str->len = TOKEN_LEN(token);
1989                         NEXT_TOKEN();
1990                         if (token->type == SPACE)
1991                         {
1992                             ary_push(parser->scope, SPACE);
1993                             str_append_str(parser->link_target, token_str);
1994                             str_clear(parser->link_text);
1995                             parser->capture     = parser->link_text;
1996                             token               = NULL; // silently consume space
1997                         }
1998                         else
1999                         {
2000                             // didn't see the space! this must be an error
2001                             wiki_pop_from_stack(parser, NULL);
2002                             wiki_pop_excess_elements(parser);
2003                             wiki_start_para_if_necessary(parser);
2004                             str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
2005                             wiki_append_hyperlink(parser, Qnil, token_str, NULL, parser->external_link_class, parser->external_link_rel, true);
2006                         }
2007                     }
2008                     else
2009                         str_append(parser->link_text, token->start, TOKEN_LEN(token));
2010                 }
2011                 else
2012                 {
2013                     wiki_pop_excess_elements(parser);
2014                     wiki_start_para_if_necessary(parser);
2015                     token_str->ptr = token->start;
2016                     token_str->len = TOKEN_LEN(token);
2017                     wiki_append_hyperlink(parser, Qnil, token_str, NULL, parser->external_link_class, parser->external_link_rel, true);
2018                 }
2019                 break;
2020
2021             case PATH:
2022                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2023                     str_append(parser->output, token->start, TOKEN_LEN(token));
2024                 else if (IN(EXT_LINK_START))
2025                 {
2026                     if (parser->link_target->len == 0)
2027                     {
2028                         // this must be our link target: look ahead to make sure we see the space we're expecting to see
2029                         token_str->ptr = token->start;
2030                         token_str->len = TOKEN_LEN(token);
2031                         NEXT_TOKEN();
2032                         if (token->type == SPACE)
2033                         {
2034                             ary_push(parser->scope, PATH);
2035                             ary_push(parser->scope, SPACE);
2036                             str_append_str(parser->link_target, token_str);
2037                             str_clear(parser->link_text);
2038                             parser->capture     = parser->link_text;
2039                             token               = NULL; // silently consume space
2040                         }
2041                         else
2042                         {
2043                             // didn't see the space! this must be an error
2044                             wiki_pop_from_stack(parser, NULL);
2045                             wiki_pop_excess_elements(parser);
2046                             wiki_start_para_if_necessary(parser);
2047                             str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
2048                             str_append_str(parser->output, token_str);
2049                         }
2050                     }
2051                     else
2052                         str_append(parser->link_text, token->start, TOKEN_LEN(token));
2053                 }
2054                 else
2055                 {
2056                     output = parser->capture ? parser->capture : parser->output;
2057                     wiki_pop_excess_elements(parser);
2058                     wiki_start_para_if_necessary(parser);
2059                     str_append(output, token->start, TOKEN_LEN(token));
2060                 }
2061                 break;
2062
2063             // internal links (links to other wiki articles) look like this:
2064             //      [[another article]] (would point at, for example, "/wiki/another_article")
2065             //      [[the other article|the link text we'll use for it]]
2066             //      [[the other article | the link text we'll use for it]]
2067             // MediaWiki has strict requirements about what it will accept as a link target:
2068             //      all wikitext markup is disallowed:
2069             //          example [[foo ''bar'' baz]]
2070             //          renders [[foo <em>bar</em> baz]]        (ie. not a link)
2071             //          example [[foo <em>bar</em> baz]]
2072             //          renders [[foo <em>bar</em> baz]]        (ie. not a link)
2073             //          example [[foo <nowiki>''</nowiki> baz]]
2074             //          renders [[foo '' baz]]                  (ie. not a link)
2075             //          example [[foo <bar> baz]]
2076             //          renders [[foo &lt;bar&gt; baz]]         (ie. not a link)
2077             //      HTML entities and non-ASCII, however, make it through:
2078             //          example [[foo &euro;]]
2079             //          renders <a href="/wiki/Foo_%E2%82%AC">foo &euro;</a>
2080             //          example [[foo €]]
2081             //          renders <a href="/wiki/Foo_%E2%82%AC">foo €</a>
2082             // we'll impose similar restrictions here for the link target; allowed tokens will be:
2083             //      SPACE, SPECIAL_URI_CHARS, PRINTABLE, PATH, ALNUM, DEFAULT, QUOT and AMP
2084             // everything else will be rejected
2085             case LINK_START:
2086                 output = parser->capture ? parser->capture : parser->output;
2087                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2088                 {
2089                     wiki_emit_pending_crlf_if_necessary(parser);
2090                     str_append(output, link_start, sizeof(link_start) - 1);
2091                 }
2092                 else if (IN(EXT_LINK_START))
2093                     // already in external link scope! (and in fact, must be capturing link_text right now)
2094                     str_append(output, link_start, sizeof(link_start) - 1);
2095                 else if (IN(LINK_START))
2096                 {
2097                     // already in internal link scope! this is a syntax error
2098                     wiki_rollback_failed_internal_link(parser);
2099                     str_append(parser->output, link_start, sizeof(link_start) - 1);
2100                 }
2101                 else if (IN(SEPARATOR))
2102                 {
2103                     // scanning internal link text
2104                 }
2105                 else // not in internal link scope yet
2106                 {
2107                     // will either emit a link, or the rollback of a failed link, so start the para now
2108                     wiki_pop_excess_elements(parser);
2109                     wiki_start_para_if_necessary(parser);
2110                     ary_push(parser->scope, LINK_START);
2111
2112                     // look ahead and try to gobble up link target
2113                     while (NEXT_TOKEN(), (type = token->type))
2114                     {
2115                         if (type == SPACE               ||
2116                             type == SPECIAL_URI_CHARS   ||
2117                             type == PATH                ||
2118                             type == PRINTABLE           ||
2119                             type == ALNUM               ||
2120                             type == DEFAULT             ||
2121                             type == QUOT                ||
2122                             type == QUOT_ENTITY         ||
2123                             type == AMP                 ||
2124                             type == AMP_ENTITY          ||
2125                             type == IMG_START           ||
2126                             type == IMG_END             ||
2127                             type == LEFT_CURLY          ||
2128                             type == RIGHT_CURLY)
2129                         {
2130                             // accumulate these tokens into link_target
2131                             if (parser->link_target->len == 0)
2132                             {
2133                                 str_clear(parser->link_target);
2134                                 parser->capture = parser->link_target;
2135                             }
2136                             if (type == QUOT_ENTITY)
2137                                 // don't insert the entity, insert the literal quote
2138                                 str_append(parser->link_target, quote, sizeof(quote) - 1);
2139                             else if (type == AMP_ENTITY)
2140                                 // don't insert the entity, insert the literal ampersand
2141                                 str_append(parser->link_target, ampersand, sizeof(ampersand) - 1);
2142                             else
2143                                 str_append(parser->link_target, token->start, TOKEN_LEN(token));
2144                         }
2145                         else if (type == LINK_END)
2146                         {
2147                             if (parser->link_target->len == 0) // bail for inputs like "[[]]"
2148                                 wiki_rollback_failed_internal_link(parser);
2149                             break; // jump back to top of loop (will handle this in LINK_END case below)
2150                         }
2151                         else if (type == SEPARATOR)
2152                         {
2153                             if (parser->link_target->len == 0) // bail for inputs like "[[|"
2154                                 wiki_rollback_failed_internal_link(parser);
2155                             else
2156                             {
2157                                 ary_push(parser->scope, SEPARATOR);
2158                                 str_clear(parser->link_text);
2159                                 parser->capture     = parser->link_text;
2160                                 token               = NULL;
2161                             }
2162                             break;
2163                         }
2164                         else // unexpected token (syntax error)
2165                         {
2166                             wiki_rollback_failed_internal_link(parser);
2167                             break; // jump back to top of loop to handle unexpected token
2168                         }
2169                     }
2170
2171                     // jump to top of the loop to process token we scanned during lookahead (if any)
2172                     continue;
2173                 }
2174                 break;
2175
2176             case LINK_END:
2177                 output = parser->capture ? parser->capture : parser->output;
2178                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2179                 {
2180                     wiki_emit_pending_crlf_if_necessary(parser);
2181                     str_append(output, link_end, sizeof(link_end) - 1);
2182                 }
2183                 else if (IN(EXT_LINK_START))
2184                     // already in external link scope! (and in fact, must be capturing link_text right now)
2185                     str_append(output, link_end, sizeof(link_end) - 1);
2186                 else if (IN(LINK_START)) // in internal link scope!
2187                 {
2188                     if (wiki_blank(parser->link_target))
2189                     {
2190                         // special case for inputs like "[[    ]]"
2191                         wiki_rollback_failed_internal_link(parser);
2192                         str_append(parser->output, link_end, sizeof(link_end) - 1);
2193                         break;
2194                     }
2195                     if (parser->link_text->len == 0 ||
2196                         wiki_blank(parser->link_text))
2197                     {
2198                         // use link target as link text
2199                         str_clear(parser->link_text);
2200                         wiki_append_sanitized_link_target(parser, parser->link_text, true);
2201                     }
2202                     else
2203                         wiki_trim_link_text(parser);
2204
2205                     // perform "redlink" check before manipulating link_target
2206                     if (NIL_P(link_proc))
2207                         j = Qnil;
2208                     else
2209                     {
2210                         j = rb_funcall(link_proc, rb_intern("call"), 1, string_from_str(parser->link_target));
2211                         if (!NIL_P(j))
2212                         {
2213                             VALUE l = j; // can't cast inside StringValue macro
2214                             j = StringValue(l);
2215                         }
2216                     }
2217                     wiki_encode_link_target(parser);
2218                     wiki_pop_from_stack_up_to(parser, output, LINK_START, true);
2219                     parser->capture = NULL;
2220                     wiki_append_hyperlink(parser, prefix, parser->link_target, parser->link_text, j, Qnil, false);
2221                     str_clear(parser->link_target);
2222                     str_clear(parser->link_text);
2223                 }
2224                 else // wasn't in internal link scope
2225                 {
2226                     wiki_pop_excess_elements(parser);
2227                     wiki_start_para_if_necessary(parser);
2228                     str_append(output, link_end, sizeof(link_end) - 1);
2229                 }
2230                 break;
2231
2232             // external links look like this:
2233             //      [http://google.com/ the link text]
2234             //      [/other/page/on/site see this page]
2235             // strings in square brackets which don't match this syntax get passed through literally; eg:
2236             //      he was very angery [sic] about the turn of events
2237             case EXT_LINK_START:
2238                 output = parser->capture ? parser->capture : parser->output;
2239                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2240                 {
2241                     wiki_emit_pending_crlf_if_necessary(parser);
2242                     str_append(output, ext_link_start, sizeof(ext_link_start) - 1);
2243                 }
2244                 else if (IN(EXT_LINK_START))
2245                     // already in external link scope! (and in fact, must be capturing link_text right now)
2246                     str_append(output, ext_link_start, sizeof(ext_link_start) - 1);
2247                 else if (IN(LINK_START))
2248                 {
2249                     // already in internal link scope!
2250                     if (parser->link_target->len == 0 || !IN(SPACE))
2251                         str_append(parser->link_target, ext_link_start, sizeof(ext_link_start) - 1);
2252                     else // link target has already been scanned
2253                         str_append(parser->link_text, ext_link_start, sizeof(ext_link_start) - 1);
2254                 }
2255                 else // not in external link scope yet
2256                 {
2257                     // will either emit a link, or the rollback of a failed link, so start the para now
2258                     wiki_pop_excess_elements(parser);
2259                     wiki_start_para_if_necessary(parser);
2260
2261                     // look ahead: expect an absolute URI (with protocol) or "relative" (path) URI
2262                     NEXT_TOKEN();
2263                     if (token->type == URI || token->type == PATH)
2264                         ary_push(parser->scope, EXT_LINK_START);    // so far so good, jump back to the top of the loop
2265                     else
2266                         // only get here if there was a syntax error (missing URI)
2267                         str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
2268                     continue; // jump back to top of loop to handle token (either URI or whatever it is)
2269                 }
2270                 break;
2271
2272             case EXT_LINK_END:
2273                 output = parser->capture ? parser->capture : parser->output;
2274                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2275                 {
2276                     wiki_emit_pending_crlf_if_necessary(parser);
2277                     str_append(output, ext_link_end, sizeof(ext_link_end) - 1);
2278                 }
2279                 else if (IN(EXT_LINK_START))
2280                 {
2281                     if (parser->link_text->len == 0)
2282                         // syntax error: external link with no link text
2283                         wiki_rollback_failed_external_link(parser);
2284                     else
2285                     {
2286                         // success!
2287                         j = IN(PATH) ? Qnil : parser->external_link_class;
2288                         k = IN(PATH) ? Qnil : parser->external_link_rel;
2289                         wiki_pop_from_stack_up_to(parser, output, EXT_LINK_START, true);
2290                         parser->capture = NULL;
2291                         wiki_append_hyperlink(parser, Qnil, parser->link_target, parser->link_text, j, k, false);
2292                     }
2293                     str_clear(parser->link_target);
2294                     str_clear(parser->link_text);
2295                 }
2296                 else
2297                 {
2298                     wiki_pop_excess_elements(parser);
2299                     wiki_start_para_if_necessary(parser);
2300                     str_append(parser->output, ext_link_end, sizeof(ext_link_end) - 1);
2301                 }
2302                 break;
2303
2304             case SEPARATOR:
2305                 output = parser->capture ? parser->capture : parser->output;
2306                 wiki_pop_excess_elements(parser);
2307                 wiki_start_para_if_necessary(parser);
2308                 str_append(output, separator, sizeof(separator) - 1);
2309                 break;
2310
2311             case SPACE:
2312                 output = parser->capture ? parser->capture : parser->output;
2313                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2314                 {
2315                     wiki_emit_pending_crlf_if_necessary(parser);
2316                     str_append(output, token->start, TOKEN_LEN(token));
2317                 }
2318                 else
2319                 {
2320                     // peek ahead to see next token
2321                     char    *token_ptr  = token->start;
2322                     int     token_len   = TOKEN_LEN(token);
2323                     NEXT_TOKEN();
2324                     type = token->type;
2325                     if ((type == H6_END && IN(H6_START)) ||
2326                         (type == H5_END && IN(H5_START)) ||
2327                         (type == H4_END && IN(H4_START)) ||
2328                         (type == H3_END && IN(H3_START)) ||
2329                         (type == H2_END && IN(H2_START)) ||
2330                         (type == H1_END && IN(H1_START)))
2331                     {
2332                         // will suppress emission of space (discard) if next token is a H6_END, H5_END etc and we are in the corresponding scope
2333                     }
2334                     else
2335                     {
2336                         // emit the space
2337                         wiki_pop_excess_elements(parser);
2338                         wiki_start_para_if_necessary(parser);
2339                         str_append(output, token_ptr, token_len);
2340                     }
2341
2342                     // jump to top of the loop to process token we scanned during lookahead
2343                     continue;
2344                 }
2345                 break;
2346
2347             case QUOT_ENTITY:
2348             case AMP_ENTITY:
2349             case NAMED_ENTITY:
2350             case DECIMAL_ENTITY:
2351                 // pass these through unaltered as they are case sensitive
2352                 output = parser->capture ? parser->capture : parser->output;
2353                 wiki_pop_excess_elements(parser);
2354                 wiki_start_para_if_necessary(parser);
2355                 str_append(output, token->start, TOKEN_LEN(token));
2356                 break;
2357
2358             case HEX_ENTITY:
2359                 // normalize hex entities (downcase them)
2360                 output = parser->capture ? parser->capture : parser->output;
2361                 wiki_pop_excess_elements(parser);
2362                 wiki_start_para_if_necessary(parser);
2363                 str_append(output, token->start, TOKEN_LEN(token));
2364                 wiki_downcase_bang(output->ptr + output->len - TOKEN_LEN(token), TOKEN_LEN(token));
2365                 break;
2366
2367             case QUOT:
2368                 output = parser->capture ? parser->capture : parser->output;
2369                 wiki_pop_excess_elements(parser);
2370                 wiki_start_para_if_necessary(parser);
2371                 str_append(output, quot_entity, sizeof(quot_entity) - 1);
2372                 break;
2373
2374             case AMP:
2375                 output = parser->capture ? parser->capture : parser->output;
2376                 wiki_pop_excess_elements(parser);
2377                 wiki_start_para_if_necessary(parser);
2378                 str_append(output, amp_entity, sizeof(amp_entity) - 1);
2379                 break;
2380
2381             case LESS:
2382                 output = parser->capture ? parser->capture : parser->output;
2383                 wiki_pop_excess_elements(parser);
2384                 wiki_start_para_if_necessary(parser);
2385                 str_append(output, lt_entity, sizeof(lt_entity) - 1);
2386                 break;
2387
2388             case GREATER:
2389                 output = parser->capture ? parser->capture : parser->output;
2390                 wiki_pop_excess_elements(parser);
2391                 wiki_start_para_if_necessary(parser);
2392                 str_append(output, gt_entity, sizeof(gt_entity) - 1);
2393                 break;
2394
2395             case IMG_START:
2396                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2397                 {
2398                     wiki_emit_pending_crlf_if_necessary(parser);
2399                     str_append(parser->output, token->start, TOKEN_LEN(token));
2400                 }
2401                 else if (parser->capture)
2402                     str_append(parser->capture, token->start, TOKEN_LEN(token));
2403                 else
2404                 {
2405                     // not currently capturing: will be emitting something on success or failure, so get ready
2406                     wiki_pop_excess_elements(parser);
2407                     wiki_start_para_if_necessary(parser);
2408
2409                     // scan ahead consuming PATH, PRINTABLE, ALNUM and SPECIAL_URI_CHARS tokens
2410                     // will cheat here and abuse the link_target capture buffer to accumulate text
2411                     while (NEXT_TOKEN(), (type = token->type))
2412                     {
2413                         if (type == PATH || type == PRINTABLE || type == ALNUM || type == SPECIAL_URI_CHARS)
2414                             str_append(parser->link_target, token->start, TOKEN_LEN(token));
2415                         else if (type == IMG_END && parser->link_target->len > 0)
2416                         {
2417                             // success
2418                             wiki_append_img(parser, parser->link_target->ptr, parser->link_target->len);
2419                             token = NULL;
2420                             break;
2421                         }
2422                         else // unexpected token or zero-length target (syntax error)
2423                         {
2424                             // rollback
2425                             str_append(parser->output, literal_img_start, sizeof(literal_img_start) - 1);
2426                             if (parser->link_target->len > 0)
2427                                 str_append(parser->output, parser->link_target->ptr, parser->link_target->len);
2428                             break;
2429                         }
2430                     }
2431
2432                     // jump to top of the loop to process token we scanned during lookahead
2433                     str_clear(parser->link_target);
2434                     continue;
2435                 }
2436                 break;
2437
2438             case CRLF:
2439                 i = parser->pending_crlf;
2440                 parser->pending_crlf = false;
2441                 wiki_rollback_failed_link(parser); // if any
2442                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
2443                 {
2444                     ary_clear(parser->line_buffer);
2445                     str_append_str(parser->output, parser->line_ending);
2446                     break;
2447                 }
2448                 else if (IN(PRE))
2449                 {
2450                     // beware when BLOCKQUOTE on line buffer (not line stack!) prior to CRLF, that must be end of PRE block
2451                     if (ary_entry(parser->line_buffer, -2) == BLOCKQUOTE)
2452                         // don't emit in this case
2453                         wiki_pop_from_stack_up_to(parser, parser->output, PRE, true);
2454                     else
2455                     {
2456                         if (ary_entry(parser->line_buffer, -2) == PRE)
2457                         {
2458                              // only thing on line is the PRE: emit pending line ending (if we had one)
2459                              if (i)
2460                                  str_append_str(parser->output, parser->line_ending);
2461                         }
2462
2463                         // clear these _before_ calling NEXT_TOKEN (NEXT_TOKEN adds to the line_buffer)
2464                         ary_clear(parser->line);
2465                         ary_clear(parser->line_buffer);
2466
2467                         // peek ahead to see if this is definitely the end of the PRE block
2468                         NEXT_TOKEN();
2469                         type = token->type;
2470                         if (type != BLOCKQUOTE && type != PRE)
2471                             // this is definitely the end of the block, so don't emit
2472                             wiki_pop_from_stack_up_to(parser, parser->output, PRE, true);
2473                         else
2474                             // potentially will emit
2475                             parser->pending_crlf = true;
2476
2477                         continue; // jump back to top of loop to handle token grabbed via lookahead
2478                     }
2479                 }
2480                 else
2481                 {
2482                     parser->pending_crlf = true;
2483
2484                     // count number of BLOCKQUOTE tokens in line buffer (can be zero) and pop back to that level
2485                     // as a side effect, this handles any open span-level elements and unclosed blocks
2486                     // (with special handling for P blocks and LI elements)
2487                     i = ary_count(parser->line, BLOCKQUOTE) + ary_count(parser->scope, BLOCKQUOTE_START);
2488                     for (j = parser->scope->count; j > i; j--)
2489                     {
2490                         if (parser->scope->count > 0 && ary_entry(parser->scope, -1) == LI)
2491                         {
2492                             parser->pending_crlf = false;
2493                             break;
2494                         }
2495
2496                         // special handling on last iteration through the loop if the top item on the scope is a P block
2497                         if ((j - i == 1) && ary_entry(parser->scope, -1) == P)
2498                         {
2499                             // if nothing or BLOCKQUOTE on line buffer (not line stack!) prior to CRLF, this must be a paragraph break
2500                             // (note that we have to make sure we're not inside a BLOCKQUOTE_START block
2501                             // because in those blocks BLOCKQUOTE tokens have no special meaning)
2502                             if (NO_ITEM(ary_entry(parser->line_buffer, -2)) ||
2503                                 (ary_entry(parser->line_buffer, -2) == BLOCKQUOTE && !IN(BLOCKQUOTE_START)))
2504                                 // paragraph break
2505                                 parser->pending_crlf = false;
2506                             else
2507                                 // not a paragraph break!
2508                                 continue;
2509                         }
2510                         wiki_pop_from_stack(parser, NULL);
2511                     }
2512                 }
2513
2514                 // delete the entire contents of the line scope stack and buffer
2515                 ary_clear(parser->line);
2516                 ary_clear(parser->line_buffer);
2517                 break;
2518
2519             case SPECIAL_URI_CHARS:
2520             case PRINTABLE:
2521             case ALNUM:
2522             case IMG_END:
2523             case LEFT_CURLY:
2524             case RIGHT_CURLY:
2525                 output = parser->capture ? parser->capture : parser->output;
2526                 wiki_pop_excess_elements(parser);
2527                 wiki_start_para_if_necessary(parser);
2528                 str_append(output, token->start, TOKEN_LEN(token));
2529                 break;
2530
2531             case DEFAULT:
2532                 output = parser->capture ? parser->capture : parser->output;
2533                 wiki_pop_excess_elements(parser);
2534                 wiki_start_para_if_necessary(parser);
2535                 wiki_append_entity_from_utf32_char(output, token->code_point);
2536                 break;
2537
2538             case END_OF_FILE:
2539                 // special case for input like " foo\n " (see pre_spec.rb)
2540                 if (IN(PRE) &&
2541                     ary_entry(parser->line_buffer, -2) == PRE &&
2542                     parser->pending_crlf)
2543                     str_append(parser->output, parser->line_ending->ptr, parser->line_ending->len);
2544
2545                 // close any open scopes on hitting EOF
2546                 wiki_rollback_failed_link(parser); // if any
2547                 wiki_pop_all_from_stack(parser);
2548                 goto return_output; // break not enough here (want to break out of outer while loop, not inner switch statement)
2549
2550             default:
2551                 break;
2552         }
2553
2554         // reset current token; forcing lexer to return another token at the top of the loop
2555         token = NULL;
2556     } while (1);
2557 return_output:
2558     // nasty hack to avoid re-allocating our return value
2559     str_append(parser->output, null_str, 1); // null-terminate
2560     len = parser->output->len - 1; // don't count null termination
2561
2562 #if defined(RUBY_1_9_x)
2563     VALUE out = rb_str_buf_new(RSTRING_EMBED_LEN_MAX + 1);
2564     free(RSTRING_PTR(out));
2565     RSTRING(out)->as.heap.aux.capa = len;
2566     RSTRING(out)->as.heap.ptr = parser->output->ptr;
2567     RSTRING(out)->as.heap.len = len;
2568 #elif defined(RUBY_1_8_x)
2569     VALUE out = rb_str_new2("");
2570     free(RSTRING_PTR(out));
2571     RSTRING(out)->len = len;
2572     RSTRING(out)->aux.capa = len;
2573     RSTRING(out)->ptr = parser->output->ptr;
2574 #else
2575 #error unsupported RUBY_VERSION
2576 #endif
2577     parser->output->ptr = NULL; // don't double-free
2578     return out;
2579 }