]> git.wincent.com - wikitext.git/blob - ext/parser.c
Add ary_includes2, ary_includes3 functions
[wikitext.git] / ext / parser.c
1 // Copyright 2007-2009 Wincent Colaiuta. All rights reserved.
2 //
3 // Redistribution and use in source and binary forms, with or without
4 // modification, are permitted provided that the following conditions are met:
5 //
6 // 1. Redistributions of source code must retain the above copyright notice,
7 //    this list of conditions and the following disclaimer.
8 // 2. Redistributions in binary form must reproduce the above copyright notice,
9 //    this list of conditions and the following disclaimer in the documentation
10 //    and/or other materials provided with the distribution.
11 //
12 // THIS SOFTWARE IS PROVIDED BY THE COPYRIGHT HOLDERS AND CONTRIBUTORS "AS IS"
13 // AND ANY EXPRESS OR IMPLIED WARRANTIES, INCLUDING, BUT NOT LIMITED TO, THE
14 // IMPLIED WARRANTIES OF MERCHANTABILITY AND FITNESS FOR A PARTICULAR PURPOSE
15 // ARE DISCLAIMED. IN NO EVENT SHALL THE COPYRIGHT HOLDERS OR CONTRIBUTORS BE
16 // LIABLE FOR ANY DIRECT, INDIRECT, INCIDENTAL, SPECIAL, EXEMPLARY, OR
17 // CONSEQUENTIAL DAMAGES (INCLUDING, BUT NOT LIMITED TO, PROCUREMENT OF
18 // SUBSTITUTE GOODS OR SERVICES; LOSS OF USE, DATA, OR PROFITS; OR BUSINESS
19 // INTERRUPTION) HOWEVER CAUSED AND ON ANY THEORY OF LIABILITY, WHETHER IN
20 // CONTRACT, STRICT LIABILITY, OR TORT (INCLUDING NEGLIGENCE OR OTHERWISE)
21 // ARISING IN ANY WAY OUT OF THE USE OF THIS SOFTWARE, EVEN IF ADVISED OF THE
22 // POSSIBILITY OF SUCH DAMAGE.
23
24 #include <stdbool.h>
25
26 #include "parser.h"
27 #include "ary.h"
28 #include "str.h"
29 #include "wikitext.h"
30 #include "wikitext_ragel.h"
31
32 #define IN(type) ary_includes(parser->scope, type)
33 #define IN_EITHER_OF(type1, type2) ary_includes2(parser->scope, type1, type2)
34 #define IN_ANY_OF(type1, type2, type3) ary_includes3(parser->scope, type1, type2, type3)
35
36 // poor man's object orientation in C:
37 // instead of parsing around multiple parameters between functions in the parser
38 // we pack everything into a struct and pass around only a pointer to that
39 typedef struct
40 {
41     str_t   *capture;               // capturing to link_target, link_text, or NULL (direct to output, not capturing)
42     str_t   *output;                // for accumulating output to be returned
43     str_t   *link_target;           // short term "memory" for parsing links
44     str_t   *link_text;             // short term "memory" for parsing links
45     str_t   *line_ending;
46     str_t   *tabulation;            // caching buffer for emitting indentation
47     ary_t   *scope;                 // stack for tracking scope
48     ary_t   *line;                  // stack for tracking scope as implied by current line
49     ary_t   *line_buffer;           // stack for tracking raw tokens (not scope) on current line
50     VALUE   external_link_class;    // CSS class applied to external links
51     VALUE   mailto_class;           // CSS class applied to email (mailto) links
52     VALUE   img_prefix;             // path prepended when emitting img tags
53     int     base_indent;            // controlled by the :indent option to Wikitext::Parser#parse
54     int     current_indent;         // fluctuates according to currently nested structures
55     int     base_heading_level;
56     bool    pending_crlf;
57     bool    autolink;
58     bool    space_to_underscore;
59 } parser_t;
60
61 const char null_str[]                   = { 0 };
62 const char escaped_no_wiki_start[]      = "&lt;nowiki&gt;";
63 const char escaped_no_wiki_end[]        = "&lt;/nowiki&gt;";
64 const char literal_strong_em[]          = "'''''";
65 const char literal_strong[]             = "'''";
66 const char literal_em[]                 = "''";
67 const char escaped_em_start[]           = "&lt;em&gt;";
68 const char escaped_em_end[]             = "&lt;/em&gt;";
69 const char escaped_strong_start[]       = "&lt;strong&gt;";
70 const char escaped_strong_end[]         = "&lt;/strong&gt;";
71 const char escaped_tt_start[]           = "&lt;tt&gt;";
72 const char escaped_tt_end[]             = "&lt;/tt&gt;";
73 const char pre_start[]                  = "<pre>";
74 const char pre_end[]                    = "</pre>";
75 const char escaped_pre_start[]          = "&lt;pre&gt;";
76 const char escaped_pre_end[]            = "&lt;/pre&gt;";
77 const char blockquote_start[]           = "<blockquote>";
78 const char blockquote_end[]             = "</blockquote>";
79 const char escaped_blockquote_start[]   = "&lt;blockquote&gt;";
80 const char escaped_blockquote_end[]     = "&lt;/blockquote&gt;";
81 const char strong_em_start[]            = "<strong><em>";
82 const char strong_start[]               = "<strong>";
83 const char strong_end[]                 = "</strong>";
84 const char em_start[]                   = "<em>";
85 const char em_end[]                     = "</em>";
86 const char tt_start[]                   = "<tt>";
87 const char tt_end[]                     = "</tt>";
88 const char ol_start[]                   = "<ol>";
89 const char ol_end[]                     = "</ol>";
90 const char ul_start[]                   = "<ul>";
91 const char ul_end[]                     = "</ul>";
92 const char li_start[]                   = "<li>";
93 const char li_end[]                     = "</li>";
94 const char h6_start[]                   = "<h6>";
95 const char h6_end[]                     = "</h6>";
96 const char h5_start[]                   = "<h5>";
97 const char h5_end[]                     = "</h5>";
98 const char h4_start[]                   = "<h4>";
99 const char h4_end[]                     = "</h4>";
100 const char h3_start[]                   = "<h3>";
101 const char h3_end[]                     = "</h3>";
102 const char h2_start[]                   = "<h2>";
103 const char h2_end[]                     = "</h2>";
104 const char h1_start[]                   = "<h1>";
105 const char h1_end[]                     = "</h1>";
106 const char p_start[]                    = "<p>";
107 const char p_end[]                      = "</p>";
108 const char space[]                      = " ";
109 const char a_start[]                    = "<a href=\"";
110 const char a_class[]                    = "\" class=\"";
111 const char a_start_close[]              = "\">";
112 const char a_end[]                      = "</a>";
113 const char link_start[]                 = "[[";
114 const char link_end[]                   = "]]";
115 const char separator[]                  = "|";
116 const char ext_link_start[]             = "[";
117 const char backtick[]                   = "`";
118 const char quote[]                      = "\"";
119 const char ampersand[]                  = "&";
120 const char quot_entity[]                = "&quot;";
121 const char amp_entity[]                 = "&amp;";
122 const char lt_entity[]                  = "&lt;";
123 const char gt_entity[]                  = "&gt;";
124 const char escaped_blockquote[]         = "&gt; ";
125 const char ext_link_end[]               = "]";
126 const char literal_img_start[]          = "{{";
127 const char img_start[]                  = "<img src=\"";
128 const char img_end[]                    = "\" />";
129 const char img_alt[]                    = "\" alt=\"";
130
131 // Mark the parser struct designated by ptr as a participant in Ruby's
132 // mark-and-sweep garbage collection scheme. A variable named name is placed on
133 // the C stack to prevent the structure from being prematurely collected.
134 #define GC_WRAP_PARSER(ptr, name) volatile VALUE name __attribute__((unused)) = Data_Wrap_Struct(rb_cObject, 0, parser_free, ptr)
135
136 parser_t *parser_new(void)
137 {
138     parser_t *parser                = ALLOC_N(parser_t, 1);
139     parser->capture                 = NULL; // not a real instance, pointer to other member's instance
140     parser->output                  = str_new();
141     parser->link_target             = str_new();
142     parser->link_text               = str_new();
143     parser->line_ending             = NULL; // caller should set up
144     parser->tabulation              = str_new();
145     parser->scope                   = ary_new();
146     parser->line                    = ary_new();
147     parser->line_buffer             = ary_new();
148     parser->external_link_class     = Qnil; // caller should set up
149     parser->mailto_class            = Qnil; // caller should set up
150     parser->img_prefix              = Qnil; // caller should set up
151     parser->base_indent             = 0;
152     parser->current_indent          = 0;
153     parser->base_heading_level      = 0;
154     parser->pending_crlf            = false;
155     parser->autolink                = true;
156     parser->space_to_underscore     = true;
157     return parser;
158 }
159
160 void parser_free(parser_t *parser)
161 {
162     // we don't free parser->capture; it's just a redundant pointer
163     if (parser->output)         str_free(parser->output);
164     if (parser->link_target)    str_free(parser->link_target);
165     if (parser->link_text)      str_free(parser->link_text);
166     if (parser->line_ending)    str_free(parser->line_ending);
167     if (parser->tabulation)     str_free(parser->tabulation);
168     if (parser->scope)          ary_free(parser->scope);
169     if (parser->line)           ary_free(parser->line);
170     if (parser->line_buffer)    ary_free(parser->line_buffer);
171     free(parser);
172 }
173
174 // for testing and debugging only
175 VALUE Wikitext_parser_tokenize(VALUE self, VALUE string)
176 {
177     if (NIL_P(string))
178         return Qnil;
179     string = StringValue(string);
180     VALUE tokens = rb_ary_new();
181     char *p = RSTRING_PTR(string);
182     long len = RSTRING_LEN(string);
183     char *pe = p + len;
184     token_t token;
185     next_token(&token, NULL, p, pe);
186     rb_ary_push(tokens, wiki_token(&token));
187     while (token.type != END_OF_FILE)
188     {
189         next_token(&token, &token, NULL, pe);
190         rb_ary_push(tokens, wiki_token(&token));
191     }
192     return tokens;
193 }
194
195 // for benchmarking raw tokenization speed only
196 VALUE Wikitext_parser_benchmarking_tokenize(VALUE self, VALUE string)
197 {
198     if (NIL_P(string))
199         return Qnil;
200     string = StringValue(string);
201     char *p = RSTRING_PTR(string);
202     long len = RSTRING_LEN(string);
203     char *pe = p + len;
204     token_t token;
205     next_token(&token, NULL, p, pe);
206     while (token.type != END_OF_FILE)
207         next_token(&token, &token, NULL, pe);
208     return Qnil;
209 }
210
211 VALUE Wikitext_parser_fulltext_tokenize(int argc, VALUE *argv, VALUE self)
212 {
213     // process arguments
214     VALUE string, options;
215     if (rb_scan_args(argc, argv, "11", &string, &options) == 1) // 1 mandatory argument, 1 optional argument
216         options = Qnil;
217     if (NIL_P(string))
218         return Qnil;
219     string = StringValue(string);
220     VALUE tokens = rb_ary_new();
221
222     // check instance variables
223     VALUE min = rb_iv_get(self, "@minimum_fulltext_token_length");
224
225     // process options hash (can override instance variables)
226     if (!NIL_P(options) && TYPE(options) == T_HASH)
227     {
228         if (rb_funcall(options, rb_intern("has_key?"), 1, ID2SYM(rb_intern("minimum"))) == Qtrue)
229             min = rb_hash_aref(options, ID2SYM(rb_intern("minimum")));
230     }
231     int min_len = NIL_P(min) ? 3 : NUM2INT(min);
232     if (min_len < 0)
233         min_len = 0;
234
235     // set up scanner
236     char *p = RSTRING_PTR(string);
237     long len = RSTRING_LEN(string);
238     char *pe = p + len;
239     token_t token;
240     token_t *_token = &token;
241     next_token(&token, NULL, p, pe);
242     while (token.type != END_OF_FILE)
243     {
244         switch (token.type)
245         {
246             case URI:
247             case MAIL:
248             case ALNUM:
249                 if (TOKEN_LEN(_token) >= min_len)
250                     rb_ary_push(tokens, TOKEN_TEXT(_token));
251                 break;
252             default:
253                 // ignore everything else
254                 break;
255         }
256         next_token(&token, &token, NULL, pe);
257     }
258     return tokens;
259 }
260
261 // we downcase "in place", overwriting the original contents of the buffer
262 void wiki_downcase_bang(char *ptr, long len)
263 {
264     for (long i = 0; i < len; i++)
265     {
266         if (ptr[i] >= 'A' && ptr[i] <= 'Z')
267             ptr[i] += 32;
268     }
269 }
270
271 // prepare hyperlink and append it to parser->output
272 // if check_autolink is true, checks parser->autolink to decide whether to emit a real hyperlink
273 // or merely the literal link target
274 // if link_text is Qnil, the link_target is re-used for the link text
275 void wiki_append_hyperlink(parser_t *parser, VALUE link_prefix, str_t *link_target, str_t *link_text, VALUE link_class, bool check_autolink)
276 {
277     if (check_autolink && !parser->autolink)
278         str_append_str(parser->output, link_target);
279     else
280     {
281         str_append(parser->output, a_start, sizeof(a_start) - 1);               // <a href="
282         if (!NIL_P(link_prefix))
283             str_append_string(parser->output, link_prefix);
284         str_append_str(parser->output, link_target);
285
286         // special handling for mailto URIs
287         const char *mailto = "mailto:";
288         if (NIL_P(link_prefix) &&
289             link_target->len >= (long)sizeof(mailto) &&
290             strncmp(mailto, link_target->ptr, sizeof(mailto)) == 0)
291             link_class = parser->mailto_class; // use mailto_class from parser
292         if (link_class != Qnil)
293         {
294             str_append(parser->output, a_class, sizeof(a_class) - 1);           // " class="
295             str_append_string(parser->output, link_class);
296         }
297         str_append(parser->output, a_start_close, sizeof(a_start_close) - 1);   // ">
298         if (!link_text || link_text->len == 0) // re-use link_target
299             str_append_str(parser->output, link_target);
300         else
301             str_append_str(parser->output, link_text);
302         str_append(parser->output, a_end, sizeof(a_end) - 1);                   // </a>
303     }
304 }
305
306 void wiki_append_img(parser_t *parser, char *token_ptr, int token_len)
307 {
308     str_append(parser->output, img_start, sizeof(img_start) - 1);   // <img src="
309     if (!NIL_P(parser->img_prefix) && *token_ptr != '/')            // len always > 0
310         str_append_string(parser->output, parser->img_prefix);
311     str_append(parser->output, token_ptr, token_len);
312     str_append(parser->output, img_alt, sizeof(img_alt) - 1);       // " alt="
313     str_append(parser->output, token_ptr, token_len);
314     str_append(parser->output, img_end, sizeof(img_end) - 1);       // " />
315 }
316
317 // will emit indentation only if we are about to emit any of:
318 //      <blockquote>, <p>, <ul>, <ol>, <li>, <h1> etc, <pre>
319 // each time we enter one of those spans must ++ the indentation level
320 void wiki_indent(parser_t *parser)
321 {
322     if (parser->base_indent == -1) // indentation disabled
323         return;
324     int space_count = parser->current_indent + parser->base_indent;
325     if (space_count > 0)
326     {
327         char *old_end, *new_end;
328         if (parser->tabulation->len < space_count)
329             str_grow(parser->tabulation, space_count); // reallocates if necessary
330         old_end = parser->tabulation->ptr + parser->tabulation->len;
331         new_end = parser->tabulation->ptr + space_count;
332         while (old_end < new_end)
333             *old_end++ = ' ';
334         if (space_count > parser->tabulation->len)
335             parser->tabulation->len = space_count;
336         str_append(parser->output, parser->tabulation->ptr, space_count);
337     }
338     parser->current_indent += 2;
339 }
340
341 void wiki_dedent(parser_t *parser, bool emit)
342 {
343     if (parser->base_indent == -1) // indentation disabled
344         return;
345     parser->current_indent -= 2;
346     if (!emit)
347         return;
348     int space_count = parser->current_indent + parser->base_indent;
349     if (space_count > 0)
350         str_append(parser->output, parser->tabulation->ptr, space_count);
351 }
352
353 // Pops a single item off the parser's scope stack.
354 // A corresponding closing tag is written to the target string.
355 // The target string may be the main output buffer, or a substring capturing buffer if a link is being scanned.
356 void wiki_pop_from_stack(parser_t *parser, str_t *target)
357 {
358     int top = ary_entry(parser->scope, -1);
359     if (NO_ITEM(top))
360         return;
361     if (!target)
362         target = parser->output;
363
364     // for headings, take base_heading_level into account
365     if (top >= H1_START && top <= H6_START)
366     {
367         top += parser->base_heading_level;
368         // no need to check for underflow (base_heading_level is never negative)
369         if (top > H6_START)
370             top = H6_START;
371     }
372
373     switch (top)
374     {
375         case PRE:
376         case PRE_START:
377             str_append(target, pre_end, sizeof(pre_end) - 1);
378             str_append_str(target, parser->line_ending);
379             wiki_dedent(parser, false);
380             break;
381
382         case BLOCKQUOTE:
383         case BLOCKQUOTE_START:
384             wiki_dedent(parser, true);
385             str_append(target, blockquote_end, sizeof(blockquote_end) - 1);
386             str_append_str(target, parser->line_ending);
387             break;
388
389         case NO_WIKI_START:
390             // not a real HTML tag; so nothing to pop
391             break;
392
393         case STRONG:
394         case STRONG_START:
395             str_append(target, strong_end, sizeof(strong_end) - 1);
396             break;
397
398         case EM:
399         case EM_START:
400             str_append(target, em_end, sizeof(em_end) - 1);
401             break;
402
403         case TT:
404         case TT_START:
405             str_append(target, tt_end, sizeof(tt_end) - 1);
406             break;
407
408         case OL:
409             wiki_dedent(parser, true);
410             str_append(target, ol_end, sizeof(ol_end) - 1);
411             str_append_str(target, parser->line_ending);
412             break;
413
414         case UL:
415             wiki_dedent(parser, true);
416             str_append(target, ul_end, sizeof(ul_end) - 1);
417             str_append_str(target, parser->line_ending);
418             break;
419
420         case NESTED_LIST:
421             // next token to pop will be a LI
422             // LI is an interesting token because sometimes we want it to behave like P (ie. do a non-emitting indent)
423             // and other times we want it to behave like BLOCKQUOTE (ie. when it has a nested list inside)
424             // hence this hack: we do an emitting dedent on behalf of the LI that we know must be coming
425             // and then when we pop the actual LI itself (below) we do the standard non-emitting indent
426             wiki_dedent(parser, true);      // we really only want to emit the spaces
427             parser->current_indent += 2;    // we don't want to decrement the actual indent level, so put it back
428             break;
429
430         case LI:
431             str_append(target, li_end, sizeof(li_end) - 1);
432             str_append_str(target, parser->line_ending);
433             wiki_dedent(parser, false);
434             break;
435
436         case H6_START:
437             str_append(target, h6_end, sizeof(h6_end) - 1);
438             str_append_str(target, parser->line_ending);
439             wiki_dedent(parser, false);
440             break;
441
442         case H5_START:
443             str_append(target, h5_end, sizeof(h5_end) - 1);
444             str_append_str(target, parser->line_ending);
445             wiki_dedent(parser, false);
446             break;
447
448         case H4_START:
449             str_append(target, h4_end, sizeof(h4_end) - 1);
450             str_append_str(target, parser->line_ending);
451             wiki_dedent(parser, false);
452             break;
453
454         case H3_START:
455             str_append(target, h3_end, sizeof(h3_end) - 1);
456             str_append_str(target, parser->line_ending);
457             wiki_dedent(parser, false);
458             break;
459
460         case H2_START:
461             str_append(target, h2_end, sizeof(h2_end) - 1);
462             str_append_str(target, parser->line_ending);
463             wiki_dedent(parser, false);
464             break;
465
466         case H1_START:
467             str_append(target, h1_end, sizeof(h1_end) - 1);
468             str_append_str(target, parser->line_ending);
469             wiki_dedent(parser, false);
470             break;
471
472         case LINK_START:
473             // not an HTML tag; so nothing to emit
474             break;
475
476         case EXT_LINK_START:
477             // not an HTML tag; so nothing to emit
478             break;
479
480         case PATH:
481             // not an HTML tag; so nothing to emit
482             break;
483
484         case SPACE:
485             // not an HTML tag (only used to separate an external link target from the link text); so nothing to emit
486             break;
487
488         case SEPARATOR:
489             // not an HTML tag (only used to separate an external link target from the link text); so nothing to emit
490             break;
491
492         case P:
493             str_append(target, p_end, sizeof(p_end) - 1);
494             str_append_str(target, parser->line_ending);
495             wiki_dedent(parser, false);
496             break;
497
498         case END_OF_FILE:
499             // nothing to do
500             break;
501
502         default:
503             // should probably raise an exception here
504             break;
505     }
506     ary_pop(parser->scope);
507 }
508
509 // Pops items off the top of parser's scope stack, accumulating closing tags for them into the target string, until item is reached.
510 // If including is true then the item itself is also popped.
511 // The target string may be the main output buffer, or a substring capturing buffer when scanning links.
512 void wiki_pop_from_stack_up_to(parser_t *parser, str_t *target, int item, bool including)
513 {
514     int continue_looping = 1;
515     do
516     {
517         int top = ary_entry(parser->scope, -1);
518         if (NO_ITEM(top))
519             return;
520         if (top == item)
521         {
522             if (!including)
523                 return;
524             continue_looping = 0;
525         }
526         wiki_pop_from_stack(parser, target);
527     } while (continue_looping);
528 }
529
530 void wiki_pop_all_from_stack(parser_t *parser)
531 {
532     for (int i = 0, max = parser->scope->count; i < max; i++)
533         wiki_pop_from_stack(parser, NULL);
534 }
535
536 void wiki_start_para_if_necessary(parser_t *parser)
537 {
538     if (parser->capture)
539         return;
540
541     // if no block open yet, or top of stack is BLOCKQUOTE/BLOCKQUOTE_START (with nothing in it yet)
542     if (parser->scope->count == 0 ||
543         ary_entry(parser->scope, -1) == BLOCKQUOTE ||
544         ary_entry(parser->scope, -1) == BLOCKQUOTE_START)
545     {
546         wiki_indent(parser);
547         str_append(parser->output, p_start, sizeof(p_start) - 1);
548         ary_push(parser->scope, P);
549         ary_push(parser->line, P);
550     }
551     else if (parser->pending_crlf)
552     {
553         if (IN(P))
554             // already in a paragraph block; convert pending CRLF into a space
555             str_append(parser->output, space, sizeof(space) - 1);
556         else if (IN(PRE))
557             // PRE blocks can have pending CRLF too (helps us avoid emitting the trailing newline)
558             str_append_str(parser->output, parser->line_ending);
559     }
560     parser->pending_crlf = false;
561 }
562
563 void wiki_emit_pending_crlf_if_necessary(parser_t *parser)
564 {
565     if (parser->pending_crlf)
566     {
567         str_append_str(parser->output, parser->line_ending);
568         parser->pending_crlf = false;
569     }
570 }
571
572 // Helper function that pops any excess elements off scope (pushing is already handled in the respective rules).
573 // For example, given input like:
574 //
575 //      > > foo
576 //      bar
577 //
578 // Upon seeing "bar", we want to pop two BLOCKQUOTE elements from the scope.
579 // The reverse case (shown below) is handled from inside the BLOCKQUOTE rule itself:
580 //
581 //      foo
582 //      > > bar
583 //
584 // Things are made slightly more complicated by the fact that there is one block-level tag that can be on the scope
585 // but not on the line scope:
586 //
587 //      <blockquote>foo
588 //      bar</blockquote>
589 //
590 // Here on seeing "bar" we have one item on the scope (BLOCKQUOTE_START) which we don't want to pop, but we have nothing
591 // on the line scope.
592 // Luckily, BLOCKQUOTE_START tokens can only appear at the start of the scope array, so we can check for them first before
593 // entering the for loop.
594 void wiki_pop_excess_elements(parser_t *parser)
595 {
596     if (parser->capture)
597         return;
598     for (int i = parser->scope->count - ary_count(parser->scope, BLOCKQUOTE_START), j = parser->line->count; i > j; i--)
599     {
600         // special case for last item on scope
601         if (i - j == 1)
602         {
603             // don't auto-pop P if it is only item on scope
604             if (ary_entry(parser->scope, -1) == P)
605             {
606                 // add P to the line scope to prevent us entering the loop at all next time around
607                 ary_push(parser->line, P);
608                 continue;
609             }
610         }
611         wiki_pop_from_stack(parser, NULL);
612     }
613 }
614
615 // Convert a single UTF-8 codepoint to UTF-32
616 //
617 // Expects an input buffer, src, containing a UTF-8 encoded character (which
618 // may be multi-byte). The end of the input buffer, end, is also passed in to
619 // allow the detection of invalidly truncated codepoints. The number of bytes
620 // in the UTF-8 character (between 1 and 4) is returned by reference in
621 // width_out.
622 //
623 // Raises a RangeError if the supplied character is invalid UTF-8.
624 uint32_t wiki_utf8_to_utf32(char *src, char *end, long *width_out)
625 {
626     uint32_t dest;
627     if ((unsigned char)src[0] <= 0x7f)
628     {
629         // ASCII
630         dest = src[0];
631         *width_out = 1;
632     }
633     else if ((src[0] & 0xe0) == 0xc0)
634     {
635         // byte starts with 110..... : this should be a two-byte sequence
636         if (src + 1 >= end)
637             // no second byte
638             rb_raise(eWikitextParserError, "invalid encoding: truncated byte sequence");
639         else if (((unsigned char)src[0] == 0xc0) ||
640                 ((unsigned char)src[0] == 0xc1))
641             // overlong encoding: lead byte of 110..... but code point <= 127
642             rb_raise(eWikitextParserError, "invalid encoding: overlong encoding");
643         else if ((src[1] & 0xc0) != 0x80 )
644             // should have second byte starting with 10......
645             rb_raise(eWikitextParserError, "invalid encoding: malformed byte sequence");
646
647         dest =
648             ((uint32_t)(src[0] & 0x1f)) << 6 |
649             (src[1] & 0x3f);
650         *width_out = 2;
651     }
652     else if ((src[0] & 0xf0) == 0xe0)
653     {
654         // byte starts with 1110.... : this should be a three-byte sequence
655         if (src + 2 >= end)
656             // missing second or third byte
657             rb_raise(eWikitextParserError, "invalid encoding: truncated byte sequence");
658         else if (((src[1] & 0xc0) != 0x80 ) ||
659                 ((src[2] & 0xc0) != 0x80 ))
660             // should have second and third bytes starting with 10......
661             rb_raise(eWikitextParserError, "invalid encoding: malformed byte sequence");
662
663         dest =
664             ((uint32_t)(src[0] & 0x0f)) << 12 |
665             ((uint32_t)(src[1] & 0x3f)) << 6 |
666             (src[2] & 0x3f);
667         *width_out = 3;
668     }
669     else if ((src[0] & 0xf8) == 0xf0)
670     {
671         // bytes starts with 11110... : this should be a four-byte sequence
672         if (src + 3 >= end)
673             // missing second, third, or fourth byte
674             rb_raise(eWikitextParserError, "invalid encoding: truncated byte sequence");
675         else if ((unsigned char)src[0] >= 0xf5 &&
676                 (unsigned char)src[0] <= 0xf7)
677             // disallowed by RFC 3629 (codepoints above 0x10ffff)
678             rb_raise(eWikitextParserError, "invalid encoding: overlong encoding");
679         else if (((src[1] & 0xc0) != 0x80 ) ||
680                 ((src[2] & 0xc0) != 0x80 ) ||
681                 ((src[3] & 0xc0) != 0x80 ))
682             // should have second and third bytes starting with 10......
683             rb_raise(eWikitextParserError, "invalid encoding: malformed byte sequence");
684
685         dest =
686             ((uint32_t)(src[0] & 0x07)) << 18 |
687             ((uint32_t)(src[1] & 0x3f)) << 12 |
688             ((uint32_t)(src[1] & 0x3f)) << 6 |
689             (src[2] & 0x3f);
690         *width_out = 4;
691     }
692     else
693         rb_raise(eWikitextParserError, "invalid encoding: unexpected byte");
694     return dest;
695 }
696
697 void wiki_append_entity_from_utf32_char(str_t *output, uint32_t character)
698 {
699     char hex_string[8]  = { '&', '#', 'x', 0, 0, 0, 0, ';' };
700     char scratch        = (character & 0xf000) >> 12;
701     hex_string[3]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
702     scratch             = (character & 0x0f00) >> 8;
703     hex_string[4]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
704     scratch             = (character & 0x00f0) >> 4;
705     hex_string[5]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
706     scratch             = character & 0x000f;
707     hex_string[6]       = (scratch <= 9 ? scratch + 48 : scratch + 87);
708     str_append(output, hex_string, sizeof(hex_string));
709 }
710
711 // trim parser->link_text in place
712 void wiki_trim_link_text(parser_t *parser)
713 {
714     char    *src        = parser->link_text->ptr;
715     char    *start      = src;                  // remember this so we can check if we're at the start
716     char    *left       = src;
717     char    *non_space  = src;                  // remember last non-space character output
718     char    *end        = src + parser->link_text->len;
719     while (src < end)
720     {
721         if (*src == ' ')
722         {
723             if (src == left)
724                 left++;
725         }
726         else
727             non_space = src;
728         src++;
729     }
730     if (left != start || non_space + 1 != end)
731     {
732         // TODO: could potentially avoid this memmove by extending the str_t struct with an "offset" or "free" member
733         parser->link_text->len = (non_space + 1) - left;
734         memmove(parser->link_text->ptr, left, parser->link_text->len);
735     }
736 }
737
738 // - non-printable (non-ASCII) characters converted to numeric entities
739 // - QUOT and AMP characters converted to named entities
740 // - if trim is true, leading and trailing whitespace trimmed
741 // - if trim is false, there is no special treatment of spaces
742 void wiki_append_sanitized_link_target(parser_t *parser, str_t *output, bool trim)
743 {
744     char    *src        = parser->link_target->ptr;
745     char    *start      = src;                          // remember this so we can check if we're at the start
746     char    *non_space  = output->ptr + output->len;    // remember last non-space character output
747     char    *end        = src + parser->link_target->len;
748     while (src < end)
749     {
750         // need at most 8 bytes to display each input character (&#x0000;)
751         if (output->ptr + output->len + 8 > output->ptr + output->capacity) // outgrowing buffer, must grow
752         {
753             char *old_ptr = output->ptr;
754             str_grow(output, output->len + (end - src) * 8);    // allocate enough for worst case
755             if (old_ptr != output->ptr) // may have moved
756                 non_space += output->ptr - old_ptr;
757         }
758
759         if (*src == '"')
760         {
761             char quot_entity_literal[] = { '&', 'q', 'u', 'o', 't', ';' };  // no trailing NUL
762             str_append(output, quot_entity_literal, sizeof(quot_entity_literal));
763         }
764         else if (*src == '&')
765         {
766             char amp_entity_literal[] = { '&', 'a', 'm', 'p', ';' };    // no trailing NUL
767             str_append(output, amp_entity_literal, sizeof(amp_entity_literal));
768         }
769         else if (*src == '<' || *src == '>')
770             rb_raise(rb_eRangeError, "invalid link text (\"%c\" may not appear in link text)", *src);
771         else if (*src == ' ' && src == start && trim)
772             start++;                            // we eat leading space
773         else if (*src >= 0x20 && *src <= 0x7e)  // printable ASCII
774         {
775             *(output->ptr + output->len) = *src;
776             output->len++;
777         }
778         else    // all others: must convert to entities
779         {
780             long        width;
781             wiki_append_entity_from_utf32_char(output, wiki_utf8_to_utf32(src, end, &width));
782             src         += width;
783             non_space   = output->ptr + output->len;
784             continue;
785         }
786         if (*src != ' ')
787             non_space = output->ptr + output->len;
788         src++;
789     }
790
791     // trim trailing space if necessary
792     if (trim && output->ptr + output->len != non_space)
793         output->len -= (output->ptr + output->len) - non_space;
794 }
795
796 VALUE Wikitext_parser_sanitize_link_target(VALUE self, VALUE string)
797 {
798     parser_t parser;
799     parser.link_target = str_new_from_string(string);
800     GC_WRAP_STR(parser.link_target, link_target_gc);
801     str_t *output = str_new();
802     GC_WRAP_STR(output, output_gc);
803     wiki_append_sanitized_link_target(&parser, output, true);
804     return string_from_str(output);
805 }
806
807 // Encodes the parser link_target member (in-place) according to RFCs 2396 and 2718
808 //
809 // Leading and trailing whitespace trimmed. Spaces are converted to
810 // underscores if the parser space_to_underscore member is true.
811 static void wiki_encode_link_target(parser_t *parser)
812 {
813     char        *src        = parser->link_target->ptr;
814     char        *start      = src;  // remember this so we can check if we're at the start
815     long        len         = parser->link_target->len;
816     if (!(len > 0))
817         return;
818     char        *end        = src + len;
819     long        dest_len    = len * 2;
820     char        *dest       = ALLOC_N(char, dest_len);
821     char        *dest_ptr   = dest; // hang on to this so we can pass it to free() later
822     char        *non_space  = dest; // remember last non-space character output
823     static char hex[]       = { '0', '1', '2', '3', '4', '5', '6', '7', '8', '9', 'a', 'b', 'c', 'd', 'e', 'f' };
824     for (; src < end; src++)
825     {
826         // worst case: a single character may grow to 3 characters once encoded
827         if ((dest + 3) > (dest_ptr + dest_len))
828         {
829             // outgrowing buffer, must reallocate
830             char *old_dest      = dest;
831             char *old_dest_ptr  = dest_ptr;
832             dest_len            += len;
833             dest                = realloc(dest_ptr, dest_len);
834             if (dest == NULL)
835             {
836                 // would have used reallocf, but this has to run on Linux too, not just Darwin
837                 free(dest_ptr);
838                 rb_raise(rb_eNoMemError, "failed to re-allocate temporary storage (memory allocation error)");
839             }
840             dest_ptr    = dest;
841             dest        = dest_ptr + (old_dest - old_dest_ptr);
842             non_space   = dest_ptr + (non_space - old_dest_ptr);
843         }
844
845         // pass through unreserved characters
846         if ((*src >= 'a' && *src <= 'z') ||
847             (*src >= 'A' && *src <= 'Z') ||
848             (*src >= '0' && *src <= '9') ||
849             *src == '-' ||
850             *src == '_' ||
851             *src == '.' ||
852             *src == '~')
853         {
854             *dest++     = *src;
855             non_space   = dest;
856         }
857         else if (*src == ' ' && src == start)
858             start++;                    // we eat leading space
859         else if (*src == ' ' && parser->space_to_underscore)
860             *dest++     = '_';
861         else    // everything else gets URL-encoded
862         {
863             *dest++     = '%';
864             *dest++     = hex[(unsigned char)(*src) / 16];   // left
865             *dest++     = hex[(unsigned char)(*src) % 16];   // right
866             if (*src != ' ')
867                 non_space = dest;
868         }
869     }
870
871     // trim trailing space if necessary
872     if (non_space > dest_ptr && dest != non_space)
873         dest_len = non_space - dest_ptr;
874     else
875         dest_len = dest - dest_ptr;
876     str_clear(parser->link_target);
877     str_append(parser->link_target, dest_ptr, dest_len);
878     free(dest_ptr);
879 }
880
881 VALUE Wikitext_parser_encode_link_target(VALUE self, VALUE in)
882 {
883     parser_t parser;
884     parser.space_to_underscore      = false;
885     parser.link_target              = str_new_from_string(in);
886     GC_WRAP_STR(parser.link_target, link_target_gc);
887     wiki_encode_link_target(&parser);
888     return string_from_str(parser.link_target);
889 }
890
891 // returns 1 (true) if supplied string is blank (nil, empty, or all whitespace)
892 // returns 0 (false) otherwise
893 bool wiki_blank(str_t *str)
894 {
895     if (str->len == 0)
896         return true;
897     for (char *ptr = str->ptr,
898         *end = str->ptr + str->len;
899         ptr < end; ptr++)
900     {
901         if (*ptr != ' ')
902             return false;
903     }
904     return true;
905 }
906
907 void wiki_rollback_failed_internal_link(parser_t *parser)
908 {
909     if (!IN(LINK_START))
910         return; // nothing to do!
911     int scope_includes_separator = IN(SEPARATOR);
912     wiki_pop_from_stack_up_to(parser, NULL, LINK_START, true);
913     str_append(parser->output, link_start, sizeof(link_start) - 1);
914     if (parser->link_target->len > 0)
915     {
916         wiki_append_sanitized_link_target(parser, parser->output, false);
917         if (scope_includes_separator)
918         {
919             str_append(parser->output, separator, sizeof(separator) - 1);
920             if (parser->link_text->len > 0)
921                 str_append_str(parser->output, parser->link_text);
922         }
923     }
924     parser->capture = NULL;
925     str_clear(parser->link_target);
926     str_clear(parser->link_text);
927 }
928
929 void wiki_rollback_failed_external_link(parser_t *parser)
930 {
931     if (!IN(EXT_LINK_START))
932         return; // nothing to do!
933
934     // store a couple of values before popping
935     int scope_includes_space = IN(SPACE);
936     VALUE link_class = IN(PATH) ? Qnil : parser->external_link_class;
937     wiki_pop_from_stack_up_to(parser, NULL, EXT_LINK_START, true);
938
939     str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
940     if (parser->link_target->len > 0)
941     {
942         wiki_append_hyperlink(parser, Qnil, parser->link_target, NULL, link_class, true);
943         if (scope_includes_space)
944         {
945             str_append(parser->output, space, sizeof(space) - 1);
946             if (parser->link_text->len > 0)
947                 str_append_str(parser->output, parser->link_text);
948         }
949     }
950     parser->capture = NULL;
951     str_clear(parser->link_target);
952     str_clear(parser->link_text);
953 }
954
955 void wiki_rollback_failed_link(parser_t *parser)
956 {
957     wiki_rollback_failed_internal_link(parser);
958     wiki_rollback_failed_external_link(parser);
959 }
960
961 VALUE Wikitext_parser_initialize(int argc, VALUE *argv, VALUE self)
962 {
963     // process arguments
964     VALUE options;
965     if (rb_scan_args(argc, argv, "01", &options) == 0) // 0 mandatory arguments, 1 optional argument
966         options = Qnil;
967
968     // defaults
969     VALUE autolink                      = Qtrue;
970     VALUE line_ending                   = rb_str_new2("\n");
971     VALUE external_link_class           = rb_str_new2("external");
972     VALUE mailto_class                  = rb_str_new2("mailto");
973     VALUE internal_link_prefix          = rb_str_new2("/wiki/");
974     VALUE img_prefix                    = rb_str_new2("/images/");
975     VALUE space_to_underscore           = Qtrue;
976     VALUE minimum_fulltext_token_length = INT2NUM(3);
977     VALUE base_heading_level            = INT2NUM(0);
978
979     // process options hash (override defaults)
980     if (!NIL_P(options) && TYPE(options) == T_HASH)
981     {
982 #define OVERRIDE_IF_SET(name)   rb_funcall(options, rb_intern("has_key?"), 1, ID2SYM(rb_intern(#name))) == Qtrue ? \
983                                 rb_hash_aref(options, ID2SYM(rb_intern(#name))) : name
984         autolink                        = OVERRIDE_IF_SET(autolink);
985         line_ending                     = OVERRIDE_IF_SET(line_ending);
986         external_link_class             = OVERRIDE_IF_SET(external_link_class);
987         mailto_class                    = OVERRIDE_IF_SET(mailto_class);
988         internal_link_prefix            = OVERRIDE_IF_SET(internal_link_prefix);
989         img_prefix                      = OVERRIDE_IF_SET(img_prefix);
990         space_to_underscore             = OVERRIDE_IF_SET(space_to_underscore);
991         minimum_fulltext_token_length   = OVERRIDE_IF_SET(minimum_fulltext_token_length);
992         base_heading_level              = OVERRIDE_IF_SET(base_heading_level);
993     }
994
995     // no need to call super here; rb_call_super()
996     rb_iv_set(self, "@autolink",                        autolink);
997     rb_iv_set(self, "@line_ending",                     line_ending);
998     rb_iv_set(self, "@external_link_class",             external_link_class);
999     rb_iv_set(self, "@mailto_class",                    mailto_class);
1000     rb_iv_set(self, "@internal_link_prefix",            internal_link_prefix);
1001     rb_iv_set(self, "@img_prefix",                      img_prefix);
1002     rb_iv_set(self, "@space_to_underscore",             space_to_underscore);
1003     rb_iv_set(self, "@minimum_fulltext_token_length",   minimum_fulltext_token_length);
1004     rb_iv_set(self, "@base_heading_level",              base_heading_level);
1005     return self;
1006 }
1007
1008 VALUE Wikitext_parser_profiling_parse(VALUE self, VALUE string)
1009 {
1010     for (int i = 0; i < 100000; i++)
1011         Wikitext_parser_parse(1, &string, self);
1012     return Qnil;
1013 }
1014
1015 VALUE Wikitext_parser_parse(int argc, VALUE *argv, VALUE self)
1016 {
1017     // process arguments
1018     VALUE string, options;
1019     if (rb_scan_args(argc, argv, "11", &string, &options) == 1) // 1 mandatory argument, 1 optional argument
1020         options = Qnil;
1021     if (NIL_P(string))
1022         return Qnil;
1023     string = StringValue(string);
1024
1025     // process options hash
1026     int base_indent = 0;
1027     int base_heading_level = NUM2INT(rb_iv_get(self, "@base_heading_level"));
1028     if (!NIL_P(options) && TYPE(options) == T_HASH)
1029     {
1030         // :indent => 0 (or more)
1031         if (rb_funcall(options, rb_intern("has_key?"), 1, ID2SYM(rb_intern("indent"))) == Qtrue)
1032         {
1033             VALUE indent = rb_hash_aref(options, ID2SYM(rb_intern("indent")));
1034             if (indent == Qfalse)
1035                 base_indent = -1; // indentation disabled
1036             else
1037             {
1038                 base_indent = NUM2INT(indent);
1039                 if (base_indent < 0)
1040                     base_indent = 0;
1041             }
1042         }
1043
1044         // :base_heading_level => 0/1/2/3/4/5/6
1045         if (rb_funcall(options, rb_intern("has_key?"), 1, ID2SYM(rb_intern("base_heading_level"))) == Qtrue)
1046             base_heading_level = NUM2INT(rb_hash_aref(options, ID2SYM(rb_intern("base_heading_level"))));
1047     }
1048
1049     // normalize, regardless of whether this came from instance variable or override
1050     if (base_heading_level < 0)
1051         base_heading_level = 0;
1052     if (base_heading_level > 6)
1053         base_heading_level = 6;
1054
1055     // set up scanner
1056     char *p = RSTRING_PTR(string);
1057     long len = RSTRING_LEN(string);
1058     char *pe = p + len;
1059
1060     // access these once per parse
1061     VALUE line_ending   = rb_iv_get(self, "@line_ending");
1062     line_ending         = StringValue(line_ending);
1063     VALUE link_class    = rb_iv_get(self, "@external_link_class");
1064     link_class          = NIL_P(link_class) ? Qnil : StringValue(link_class);
1065     VALUE mailto_class  = rb_iv_get(self, "@mailto_class");
1066     mailto_class        = NIL_P(mailto_class) ? Qnil : StringValue(mailto_class);
1067     VALUE prefix        = rb_iv_get(self, "@internal_link_prefix");
1068
1069     // set up parser struct to make passing parameters a little easier
1070     parser_t *parser                = parser_new();
1071     GC_WRAP_PARSER(parser, parser_gc);
1072     parser->external_link_class     = link_class;
1073     parser->mailto_class            = mailto_class;
1074     parser->img_prefix              = rb_iv_get(self, "@img_prefix");
1075     parser->autolink                = rb_iv_get(self, "@autolink") == Qtrue ? true : false;
1076     parser->space_to_underscore     = rb_iv_get(self, "@space_to_underscore") == Qtrue ? true : false;
1077     parser->line_ending             = str_new_from_string(line_ending);
1078     parser->base_indent             = base_indent;
1079     parser->base_heading_level      = base_heading_level;
1080
1081     // this simple looping design leads to a single enormous function,
1082     // but it's faster than doing actual recursive descent and also secure in the face of
1083     // malicious input that seeks to overflow the stack
1084     // (with "<blockquote><blockquote><blockquote>..." times by 10,000, for example)
1085     // given that we expect to deal with a lot of malformed input, a recursive descent design is less appropriate
1086     // than a straightforward looping translator like this one anyway
1087     token_t _token;
1088     _token.type = NO_TOKEN;
1089     token_t *token = NULL;
1090     do
1091     {
1092         // note that whenever we grab a token we push it into the line buffer
1093         // this provides us with context-sensitive "memory" of what's been seen so far on this line
1094 #define NEXT_TOKEN()    token = &_token, next_token(token, token, NULL, pe), ary_push(parser->line_buffer, token->type)
1095
1096         // check to see if we have a token hanging around from a previous iteration of this loop
1097         if (token == NULL)
1098         {
1099             if (_token.type == NO_TOKEN)
1100             {
1101                 // first time here (haven't started scanning yet)
1102                 token = &_token;
1103                 next_token(token, NULL, p, pe);
1104                 ary_push(parser->line_buffer, token->type);
1105             }
1106             else
1107                 // already scanning
1108                 NEXT_TOKEN();
1109         }
1110         int type = token->type;
1111
1112         // can't declare new variables inside a switch statement, so predeclare them here
1113         long remove_strong          = -1;
1114         long remove_em              = -1;
1115
1116         // general purpose counters, flags and pointers
1117         long i                      = 0;
1118         long j                      = 0;
1119         long k                      = 0;
1120         str_t *output               = NULL;
1121         str_t _token_str;
1122         str_t *token_str            = &_token_str;
1123
1124         // The following giant switch statement contains cases for all the possible token types.
1125         // In the most basic sense we are emitting the HTML that corresponds to each token,
1126         // but some tokens require context information in order to decide what to output.
1127         // For example, does the STRONG token (''') translate to <strong> or </strong>?
1128         // So when looking at any given token we have three state-maintaining variables which gives us a notion of "where we are":
1129         //
1130         //  - the "scope" stack (indicates what HTML DOM structures we are currently nested inside, similar to a CSS selector)
1131         //  - the line buffer (records tokens seen so far on the current line)
1132         //  - the line "scope" stack (indicates what the scope should be based only on what is visible on the line so far)
1133         //
1134         // Although this is fairly complicated, there is one key simplifying factor:
1135         // The translator continuously performs auto-correction, and this means that we always have a guarantee that the
1136         // scope stack (up to the current token) is valid; our translator can take this as a given.
1137         // Auto-correction basically consists of inserting missing tokens (preventing subsquent HTML from being messed up),
1138         // or converting illegal (unexpected) tokens to their plain text equivalents (providing visual feedback to Wikitext author).
1139         switch (type)
1140         {
1141             case PRE:
1142                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1143                 {
1144                     str_append(parser->output, space, sizeof(space) - 1);
1145                     break;
1146                 }
1147                 else if (IN(BLOCKQUOTE_START))
1148                 {
1149                     // this kind of nesting not allowed (to avoid user confusion)
1150                     wiki_pop_excess_elements(parser);
1151                     wiki_start_para_if_necessary(parser);
1152                     output = parser->capture ? parser->capture : parser->output;
1153                     str_append(output, space, sizeof(space) - 1);
1154                     break;
1155                 }
1156
1157                 // count number of BLOCKQUOTE tokens in line buffer and in scope stack
1158                 ary_push(parser->line, PRE);
1159                 i = ary_count(parser->line, BLOCKQUOTE);
1160                 j = ary_count(parser->scope, BLOCKQUOTE);
1161                 if (i < j)
1162                 {
1163                     // must pop (reduce nesting level)
1164                     for (i = j - i; i > 0; i--)
1165                         wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, true);
1166                 }
1167
1168                 if (!IN(PRE))
1169                 {
1170                     parser->pending_crlf = false;
1171                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1172                     wiki_indent(parser);
1173                     str_append(parser->output, pre_start, sizeof(pre_start) - 1);
1174                     ary_push(parser->scope, PRE);
1175                 }
1176                 break;
1177
1178             case PRE_START:
1179                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1180                 {
1181                     wiki_emit_pending_crlf_if_necessary(parser);
1182                     str_append(parser->output, escaped_pre_start, sizeof(escaped_pre_start) - 1);
1183                 }
1184                 else if (IN(BLOCKQUOTE_START))
1185                 {
1186                     wiki_rollback_failed_link(parser); // if any
1187                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1188                     wiki_indent(parser);
1189                     str_append(parser->output, pre_start, sizeof(pre_start) - 1);
1190                     ary_push(parser->scope, PRE_START);
1191                     ary_push(parser->line, PRE_START);
1192                 }
1193                 else if (IN(BLOCKQUOTE))
1194                 {
1195                     if (token->column_start == 1) // only allowed in first column
1196                     {
1197                         wiki_rollback_failed_link(parser); // if any
1198                         wiki_pop_all_from_stack(parser);
1199                         wiki_indent(parser);
1200                         str_append(parser->output, pre_start, sizeof(pre_start) - 1);
1201                         ary_push(parser->scope, PRE_START);
1202                         ary_push(parser->line, PRE_START);
1203                     }
1204                     else // PRE_START illegal here
1205                     {
1206                         output = parser->capture ? parser->capture : parser->output;
1207                         wiki_pop_excess_elements(parser);
1208                         wiki_start_para_if_necessary(parser);
1209                         str_append(output, escaped_pre_start, sizeof(escaped_pre_start) - 1);
1210                     }
1211                 }
1212                 else
1213                 {
1214                     wiki_rollback_failed_link(parser); // if any
1215                     wiki_pop_from_stack_up_to(parser, NULL, P, true);
1216                     wiki_indent(parser);
1217                     str_append(parser->output, pre_start, sizeof(pre_start) - 1);
1218                     ary_push(parser->scope, PRE_START);
1219                     ary_push(parser->line, PRE_START);
1220                 }
1221                 break;
1222
1223             case PRE_END:
1224                 if (IN_EITHER_OF(NO_WIKI_START, PRE))
1225                 {
1226                     wiki_emit_pending_crlf_if_necessary(parser);
1227                     str_append(parser->output, escaped_pre_end, sizeof(escaped_pre_end) - 1);
1228                 }
1229                 else
1230                 {
1231                     if (IN(PRE_START))
1232                         wiki_pop_from_stack_up_to(parser, parser->output, PRE_START, true);
1233                     else
1234                     {
1235                         output = parser->capture ? parser->capture : parser->output;
1236                         wiki_pop_excess_elements(parser);
1237                         wiki_start_para_if_necessary(parser);
1238                         str_append(output, escaped_pre_end, sizeof(escaped_pre_end) - 1);
1239                     }
1240                 }
1241                 break;
1242
1243             case BLOCKQUOTE:
1244                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1245                     // no need to check for <pre>; can never appear inside it
1246                     str_append(parser->output, escaped_blockquote, TOKEN_LEN(token) + 3); // will either emit "&gt;" or "&gt; "
1247                 else if (IN(BLOCKQUOTE_START))
1248                 {
1249                     // this kind of nesting not allowed (to avoid user confusion)
1250                     wiki_pop_excess_elements(parser);
1251                     wiki_start_para_if_necessary(parser);
1252                     output = parser->capture ? parser->capture : parser->output;
1253                     str_append(output, escaped_blockquote, TOKEN_LEN(token) + 3); // will either emit "&gt;" or "&gt; "
1254                     break;
1255                 }
1256                 else
1257                 {
1258                     ary_push(parser->line, BLOCKQUOTE);
1259
1260                     // count number of BLOCKQUOTE tokens in line buffer and in scope stack
1261                     i = ary_count(parser->line, BLOCKQUOTE);
1262                     j = ary_count(parser->scope, BLOCKQUOTE);
1263
1264                     // given that BLOCKQUOTE tokens can be nested, peek ahead and see if there are any more which might affect the decision to push or pop
1265                     while (NEXT_TOKEN(), (token->type == BLOCKQUOTE))
1266                     {
1267                         ary_push(parser->line, BLOCKQUOTE);
1268                         i++;
1269                     }
1270
1271                     // now decide whether to push, pop or do nothing
1272                     if (i > j)
1273                     {
1274                         // must push (increase nesting level)
1275                         wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1276                         for (i = i - j; i > 0; i--)
1277                         {
1278                             wiki_indent(parser);
1279                             str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1280                             str_append_str(parser->output, parser->line_ending);
1281                             ary_push(parser->scope, BLOCKQUOTE);
1282                         }
1283                     }
1284                     else if (i < j)
1285                     {
1286                         // must pop (reduce nesting level)
1287                         for (i = j - i; i > 0; i--)
1288                             wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, true);
1289                     }
1290
1291                     // jump to top of the loop to process token we scanned during lookahead
1292                     continue;
1293                 }
1294                 break;
1295
1296             case BLOCKQUOTE_START:
1297                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1298                 {
1299                     wiki_emit_pending_crlf_if_necessary(parser);
1300                     str_append(parser->output, escaped_blockquote_start, sizeof(escaped_blockquote_start) - 1);
1301                 }
1302                 else if (IN(BLOCKQUOTE_START))
1303                 {
1304                     // nesting is fine here
1305                     wiki_rollback_failed_link(parser); // if any
1306                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1307                     wiki_indent(parser);
1308                     str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1309                     str_append_str(parser->output, parser->line_ending);
1310                     ary_push(parser->scope, BLOCKQUOTE_START);
1311                     ary_push(parser->line, BLOCKQUOTE_START);
1312                 }
1313                 else if (IN(BLOCKQUOTE))
1314                 {
1315                     if (token->column_start == 1) // only allowed in first column
1316                     {
1317                         wiki_rollback_failed_link(parser); // if any
1318                         wiki_pop_all_from_stack(parser);
1319                         wiki_indent(parser);
1320                         str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1321                         str_append_str(parser->output, parser->line_ending);
1322                         ary_push(parser->scope, BLOCKQUOTE_START);
1323                         ary_push(parser->line, BLOCKQUOTE_START);
1324                     }
1325                     else // BLOCKQUOTE_START illegal here
1326                     {
1327                         output = parser->capture ? parser->capture : parser->output;
1328                         wiki_pop_excess_elements(parser);
1329                         wiki_start_para_if_necessary(parser);
1330                         str_append(output, escaped_blockquote_start, sizeof(escaped_blockquote_start) - 1);
1331                     }
1332                 }
1333                 else
1334                 {
1335                     // would be nice to eliminate the repetition here but it's probably the clearest way
1336                     wiki_rollback_failed_link(parser); // if any
1337                     wiki_pop_from_stack_up_to(parser, NULL, P, true);
1338                     wiki_indent(parser);
1339                     str_append(parser->output, blockquote_start, sizeof(blockquote_start) - 1);
1340                     str_append_str(parser->output, parser->line_ending);
1341                     ary_push(parser->scope, BLOCKQUOTE_START);
1342                     ary_push(parser->line, BLOCKQUOTE_START);
1343                 }
1344                 break;
1345
1346             case BLOCKQUOTE_END:
1347                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1348                 {
1349                     wiki_emit_pending_crlf_if_necessary(parser);
1350                     str_append(parser->output, escaped_blockquote_end, sizeof(escaped_blockquote_end) - 1);
1351                 }
1352                 else
1353                 {
1354                     if (IN(BLOCKQUOTE_START))
1355                         wiki_pop_from_stack_up_to(parser, parser->output, BLOCKQUOTE_START, true);
1356                     else
1357                     {
1358                         output = parser->capture ? parser->capture : parser->output;
1359                         wiki_pop_excess_elements(parser);
1360                         wiki_start_para_if_necessary(parser);
1361                         str_append(output, escaped_blockquote_end, sizeof(escaped_blockquote_end) - 1);
1362                     }
1363                 }
1364                 break;
1365
1366             case NO_WIKI_START:
1367                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1368                 {
1369                     wiki_emit_pending_crlf_if_necessary(parser);
1370                     str_append(parser->output, escaped_no_wiki_start, sizeof(escaped_no_wiki_start) - 1);
1371                 }
1372                 else
1373                 {
1374                     wiki_pop_excess_elements(parser);
1375                     wiki_start_para_if_necessary(parser);
1376                     ary_push(parser->scope, NO_WIKI_START);
1377                     ary_push(parser->line, NO_WIKI_START);
1378                 }
1379                 break;
1380
1381             case NO_WIKI_END:
1382                 if (IN(NO_WIKI_START))
1383                     // <nowiki> should always only ever be the last item in the stack, but use the helper routine just in case
1384                     wiki_pop_from_stack_up_to(parser, NULL, NO_WIKI_START, true);
1385                 else
1386                 {
1387                     wiki_pop_excess_elements(parser);
1388                     wiki_start_para_if_necessary(parser);
1389                     str_append(parser->output, escaped_no_wiki_end, sizeof(escaped_no_wiki_end) - 1);
1390                 }
1391                 break;
1392
1393             case STRONG_EM:
1394                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1395                 {
1396                     wiki_emit_pending_crlf_if_necessary(parser);
1397                     str_append(parser->output, literal_strong_em, sizeof(literal_strong_em) - 1);
1398                     break;
1399                 }
1400
1401                 output = parser->capture ? parser->capture : parser->output;
1402                 wiki_pop_excess_elements(parser);
1403
1404                 // if you've seen STRONG/STRONG_START or EM/EM_START, must close them in the reverse order that you saw them!
1405                 // otherwise, must open them
1406                 remove_strong  = -1;
1407                 remove_em      = -1;
1408                 j              = parser->scope->count;
1409                 for (j = j - 1; j >= 0; j--)
1410                 {
1411                     int val = ary_entry(parser->scope, j);
1412                     if (val == STRONG || val == STRONG_START)
1413                     {
1414                         str_append(output, strong_end, sizeof(strong_end) - 1);
1415                         remove_strong = j;
1416                     }
1417                     else if (val == EM || val == EM_START)
1418                     {
1419                         str_append(output, em_end, sizeof(em_end) - 1);
1420                         remove_em = j;
1421                     }
1422                 }
1423
1424                 if (remove_strong > remove_em)      // must remove strong first
1425                 {
1426                     ary_pop(parser->scope);
1427                     if (remove_em > -1)
1428                         ary_pop(parser->scope);
1429                     else    // there was no em to remove!, so consider this an opening em tag
1430                     {
1431                         str_append(output, em_start, sizeof(em_start) - 1);
1432                         ary_push(parser->scope, EM);
1433                         ary_push(parser->line, EM);
1434                     }
1435                 }
1436                 else if (remove_em > remove_strong) // must remove em first
1437                 {
1438                     ary_pop(parser->scope);
1439                     if (remove_strong > -1)
1440                         ary_pop(parser->scope);
1441                     else    // there was no strong to remove!, so consider this an opening strong tag
1442                     {
1443                         str_append(output, strong_start, sizeof(strong_start) - 1);
1444                         ary_push(parser->scope, STRONG);
1445                         ary_push(parser->line, STRONG);
1446                     }
1447                 }
1448                 else    // no strong or em to remove, so this must be a new opening of both
1449                 {
1450                     wiki_start_para_if_necessary(parser);
1451                     str_append(output, strong_em_start, sizeof(strong_em_start) - 1);
1452                     ary_push(parser->scope, STRONG);
1453                     ary_push(parser->line, STRONG);
1454                     ary_push(parser->scope, EM);
1455                     ary_push(parser->line, EM);
1456                 }
1457                 break;
1458
1459             case STRONG:
1460                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1461                 {
1462                     wiki_emit_pending_crlf_if_necessary(parser);
1463                     str_append(parser->output, literal_strong, sizeof(literal_strong) - 1);
1464                 }
1465                 else
1466                 {
1467                     output = parser->capture ? parser->capture : parser->output;
1468                     if (IN(STRONG_START))
1469                         // already in span started with <strong>, no choice but to emit this literally
1470                         str_append(output, literal_strong, sizeof(literal_strong) - 1);
1471                     else if (IN(STRONG))
1472                         // STRONG already seen, this is a closing tag
1473                         wiki_pop_from_stack_up_to(parser, output, STRONG, true);
1474                     else
1475                     {
1476                         // this is a new opening
1477                         wiki_pop_excess_elements(parser);
1478                         wiki_start_para_if_necessary(parser);
1479                         str_append(output, strong_start, sizeof(strong_start) - 1);
1480                         ary_push(parser->scope, STRONG);
1481                         ary_push(parser->line, STRONG);
1482                     }
1483                 }
1484                 break;
1485
1486             case STRONG_START:
1487                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1488                 {
1489                     wiki_emit_pending_crlf_if_necessary(parser);
1490                     str_append(parser->output, escaped_strong_start, sizeof(escaped_strong_start) - 1);
1491                 }
1492                 else
1493                 {
1494                     output = parser->capture ? parser->capture : parser->output;
1495                     if (IN_EITHER_OF(STRONG_START, STRONG))
1496                         str_append(output, escaped_strong_start, sizeof(escaped_strong_start) - 1);
1497                     else
1498                     {
1499                         wiki_pop_excess_elements(parser);
1500                         wiki_start_para_if_necessary(parser);
1501                         str_append(output, strong_start, sizeof(strong_start) - 1);
1502                         ary_push(parser->scope, STRONG_START);
1503                         ary_push(parser->line, STRONG_START);
1504                     }
1505                 }
1506                 break;
1507
1508             case STRONG_END:
1509                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1510                 {
1511                     wiki_emit_pending_crlf_if_necessary(parser);
1512                     str_append(parser->output, escaped_strong_end, sizeof(escaped_strong_end) - 1);
1513                 }
1514                 else
1515                 {
1516                     output = parser->capture ? parser->capture : parser->output;
1517                     if (IN(STRONG_START))
1518                         wiki_pop_from_stack_up_to(parser, output, STRONG_START, true);
1519                     else
1520                     {
1521                         // no STRONG_START in scope, so must interpret the STRONG_END without any special meaning
1522                         wiki_pop_excess_elements(parser);
1523                         wiki_start_para_if_necessary(parser);
1524                         str_append(output, escaped_strong_end, sizeof(escaped_strong_end) - 1);
1525                     }
1526                 }
1527                 break;
1528
1529             case EM:
1530                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1531                 {
1532                     wiki_emit_pending_crlf_if_necessary(parser);
1533                     str_append(parser->output, literal_em, sizeof(literal_em) - 1);
1534                 }
1535                 else
1536                 {
1537                     output = parser->capture ? parser->capture : parser->output;
1538                     if (IN(EM_START))
1539                         // already in span started with <em>, no choice but to emit this literally
1540                         str_append(output, literal_em, sizeof(literal_em) - 1);
1541                     else if (IN(EM))
1542                         // EM already seen, this is a closing tag
1543                         wiki_pop_from_stack_up_to(parser, output, EM, true);
1544                     else
1545                     {
1546                         // this is a new opening
1547                         wiki_pop_excess_elements(parser);
1548                         wiki_start_para_if_necessary(parser);
1549                         str_append(output, em_start, sizeof(em_start) - 1);
1550                         ary_push(parser->scope, EM);
1551                         ary_push(parser->line, EM);
1552                     }
1553                 }
1554                 break;
1555
1556             case EM_START:
1557                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1558                 {
1559                     wiki_emit_pending_crlf_if_necessary(parser);
1560                     str_append(parser->output, escaped_em_start, sizeof(escaped_em_start) - 1);
1561                 }
1562                 else
1563                 {
1564                     output = parser->capture ? parser->capture : parser->output;
1565                     if (IN_EITHER_OF(EM_START, EM))
1566                         str_append(output, escaped_em_start, sizeof(escaped_em_start) - 1);
1567                     else
1568                     {
1569                         wiki_pop_excess_elements(parser);
1570                         wiki_start_para_if_necessary(parser);
1571                         str_append(output, em_start, sizeof(em_start) - 1);
1572                         ary_push(parser->scope, EM_START);
1573                         ary_push(parser->line, EM_START);
1574                     }
1575                 }
1576                 break;
1577
1578             case EM_END:
1579                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1580                 {
1581                     wiki_emit_pending_crlf_if_necessary(parser);
1582                     str_append(parser->output, escaped_em_end, sizeof(escaped_em_end) - 1);
1583                 }
1584                 else
1585                 {
1586                     output = parser->capture ? parser->capture : parser->output;
1587                     if (IN(EM_START))
1588                         wiki_pop_from_stack_up_to(parser, output, EM_START, true);
1589                     else
1590                     {
1591                         // no EM_START in scope, so must interpret the TT_END without any special meaning
1592                         wiki_pop_excess_elements(parser);
1593                         wiki_start_para_if_necessary(parser);
1594                         str_append(output, escaped_em_end, sizeof(escaped_em_end) - 1);
1595                     }
1596                 }
1597                 break;
1598
1599             case TT:
1600                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1601                 {
1602                     wiki_emit_pending_crlf_if_necessary(parser);
1603                     str_append(parser->output, backtick, sizeof(backtick) - 1);
1604                 }
1605                 else
1606                 {
1607                     output = parser->capture ? parser->capture : parser->output;
1608                     if (IN(TT_START))
1609                         // already in span started with <tt>, no choice but to emit this literally
1610                         str_append(output, backtick, sizeof(backtick) - 1);
1611                     else if (IN(TT))
1612                         // TT (`) already seen, this is a closing tag
1613                         wiki_pop_from_stack_up_to(parser, output, TT, true);
1614                     else
1615                     {
1616                         // this is a new opening
1617                         wiki_pop_excess_elements(parser);
1618                         wiki_start_para_if_necessary(parser);
1619                         str_append(output, tt_start, sizeof(tt_start) - 1);
1620                         ary_push(parser->scope, TT);
1621                         ary_push(parser->line, TT);
1622                     }
1623                 }
1624                 break;
1625
1626             case TT_START:
1627                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1628                 {
1629                     wiki_emit_pending_crlf_if_necessary(parser);
1630                     str_append(parser->output, escaped_tt_start, sizeof(escaped_tt_start) - 1);
1631                 }
1632                 else
1633                 {
1634                     output = parser->capture ? parser->capture : parser->output;
1635                     if (IN_EITHER_OF(TT_START, TT))
1636                         str_append(output, escaped_tt_start, sizeof(escaped_tt_start) - 1);
1637                     else
1638                     {
1639                         wiki_pop_excess_elements(parser);
1640                         wiki_start_para_if_necessary(parser);
1641                         str_append(output, tt_start, sizeof(tt_start) - 1);
1642                         ary_push(parser->scope, TT_START);
1643                         ary_push(parser->line, TT_START);
1644                     }
1645                 }
1646                 break;
1647
1648             case TT_END:
1649                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1650                 {
1651                     wiki_emit_pending_crlf_if_necessary(parser);
1652                     str_append(parser->output, escaped_tt_end, sizeof(escaped_tt_end) - 1);
1653                 }
1654                 else
1655                 {
1656                     output = parser->capture ? parser->capture : parser->output;
1657                     if (IN(TT_START))
1658                         wiki_pop_from_stack_up_to(parser, output, TT_START, true);
1659                     else
1660                     {
1661                         // no TT_START in scope, so must interpret the TT_END without any special meaning
1662                         wiki_pop_excess_elements(parser);
1663                         wiki_start_para_if_necessary(parser);
1664                         str_append(output, escaped_tt_end, sizeof(escaped_tt_end) - 1);
1665                     }
1666                 }
1667                 break;
1668
1669             case OL:
1670             case UL:
1671                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1672                 {
1673                     // no need to check for PRE; can never appear inside it
1674                     str_append(parser->output, token->start, TOKEN_LEN(token));
1675                     break;
1676                 }
1677
1678                 // count number of tokens in line and scope stacks
1679                 int bq_count = ary_count(parser->scope, BLOCKQUOTE_START);
1680                 i = parser->line->count - ary_count(parser->line, BLOCKQUOTE_START);
1681                 j = parser->scope->count - bq_count;
1682                 k = i;
1683
1684                 // list tokens can be nested so look ahead for any more which might affect the decision to push or pop
1685                 for (;;)
1686                 {
1687                     type = token->type;
1688                     if (type == OL || type == UL)
1689                     {
1690                         token = NULL;
1691                         if (i - k >= 2)                             // already seen at least one OL or UL
1692                         {
1693                             ary_push(parser->line, NESTED_LIST);    // which means this is a nested list
1694                             i += 3;
1695                         }
1696                         else
1697                             i += 2;
1698                         ary_push(parser->line, type);
1699                         ary_push(parser->line, LI);
1700
1701                         // want to compare line with scope but can only do so if scope has enough items on it
1702                         if (j >= i)
1703                         {
1704                             if (ary_entry(parser->scope, i + bq_count - 2) == type &&
1705                                 ary_entry(parser->scope, i + bq_count - 1) == LI)
1706                             {
1707                                 // line and scope match at this point: do nothing yet
1708                             }
1709                             else
1710                             {
1711                                 // item just pushed onto line does not match corresponding slot of scope!
1712                                 for (; j >= i - 2; j--)
1713                                     // must pop back before emitting
1714                                     wiki_pop_from_stack(parser, NULL);
1715
1716                                 // will emit UL or OL, then LI
1717                                 break;
1718                             }
1719                         }
1720                         else        // line stack size now exceeds scope stack size: must increase nesting level
1721                             break;  // will emit UL or OL, then LI
1722                     }
1723                     else
1724                     {
1725                         // not a OL or UL token!
1726                         if (j == i)
1727                             // must close existing LI and re-open new one
1728                             wiki_pop_from_stack(parser, NULL);
1729                         else if (j > i)
1730                         {
1731                             // item just pushed onto line does not match corresponding slot of scope!
1732                             for (; j >= i; j--)
1733                                 // must pop back before emitting
1734                                 wiki_pop_from_stack(parser, NULL);
1735                         }
1736                         break;
1737                     }
1738                     NEXT_TOKEN();
1739                 }
1740
1741                 // will emit
1742                 if (type == OL || type == UL)
1743                 {
1744                     // if LI is at the top of a stack this is the start of a nested list
1745                     if (j > 0 && ary_entry(parser->scope, -1) == LI)
1746                     {
1747                         // so we should precede it with a CRLF, and indicate that it's a nested list
1748                         str_append(parser->output, parser->line_ending->ptr, parser->line_ending->len);
1749                         ary_push(parser->scope, NESTED_LIST);
1750                     }
1751                     else
1752                     {
1753                         // this is a new list
1754                         if (IN(BLOCKQUOTE_START))
1755                             wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1756                         else
1757                             wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1758                     }
1759
1760                     // emit
1761                     wiki_indent(parser);
1762                     if (type == OL)
1763                         str_append(parser->output, ol_start, sizeof(ol_start) - 1);
1764                     else if (type == UL)
1765                         str_append(parser->output, ul_start, sizeof(ul_start) - 1);
1766                     ary_push(parser->scope, type);
1767                     str_append(parser->output, parser->line_ending->ptr, parser->line_ending->len);
1768                 }
1769                 else if (type == SPACE)
1770                     // silently throw away the optional SPACE token after final list marker
1771                     token = NULL;
1772
1773                 wiki_indent(parser);
1774                 str_append(parser->output, li_start, sizeof(li_start) - 1);
1775                 ary_push(parser->scope, LI);
1776
1777                 // any subsequent UL or OL tokens on this line are syntax errors and must be emitted literally
1778                 if (type == OL || type == UL)
1779                 {
1780                     k = 0;
1781                     while (k++, NEXT_TOKEN(), (type = token->type))
1782                     {
1783                         if (type == OL || type == UL)
1784                             str_append(parser->output, token->start, TOKEN_LEN(token));
1785                         else if (type == SPACE && k == 1)
1786                         {
1787                             // silently throw away the optional SPACE token after final list marker
1788                             token = NULL;
1789                             break;
1790                         }
1791                         else
1792                             break;
1793                     }
1794                 }
1795
1796                 // jump to top of the loop to process token we scanned during lookahead
1797                 continue;
1798
1799             case H6_START:
1800             case H5_START:
1801             case H4_START:
1802             case H3_START:
1803             case H2_START:
1804             case H1_START:
1805                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
1806                 {
1807                     // no need to check for PRE; can never appear inside it
1808                     str_append(parser->output, token->start, TOKEN_LEN(token));
1809                     break;
1810                 }
1811
1812                 // pop up to but not including the last BLOCKQUOTE on the scope stack
1813                 if (IN(BLOCKQUOTE_START))
1814                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE_START, false);
1815                 else
1816                     wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, false);
1817
1818                 // count number of BLOCKQUOTE tokens in line buffer and in scope stack
1819                 ary_push(parser->line, type);
1820                 i = ary_count(parser->line, BLOCKQUOTE);
1821                 j = ary_count(parser->scope, BLOCKQUOTE);
1822
1823                 // decide whether we need to pop off excess BLOCKQUOTE tokens (will never need to push; that is handled above in the BLOCKQUOTE case itself)
1824                 if (i < j)
1825                 {
1826                     // must pop (reduce nesting level)
1827                     for (i = j - i; i > 0; i--)
1828                         wiki_pop_from_stack_up_to(parser, NULL, BLOCKQUOTE, true);
1829                 }
1830
1831                 // discard any whitespace here (so that "== foo ==" will be translated to "<h2>foo</h2>" rather than "<h2> foo </h2")
1832                 while (NEXT_TOKEN(), (token->type == SPACE))
1833                     ; // discard
1834
1835                 ary_push(parser->scope, type);
1836                 wiki_indent(parser);
1837
1838                 // take base_heading_level into account
1839                 type += base_heading_level;
1840                 if (type > H6_START) // no need to check for underflow (base_heading_level never negative)
1841                     type = H6_START;
1842
1843                 // rather than repeat all that code for each kind of heading, share it and use a conditional here
1844                 if (type == H6_START)
1845                     str_append(parser->output, h6_start, sizeof(h6_start) - 1);
1846                 else if (type == H5_START)
1847                     str_append(parser->output, h5_start, sizeof(h5_start) - 1);
1848                 else if (type == H4_START)
1849                     str_append(parser->output, h4_start, sizeof(h4_start) - 1);
1850                 else if (type == H3_START)
1851                     str_append(parser->output, h3_start, sizeof(h3_start) - 1);
1852                 else if (type == H2_START)
1853                     str_append(parser->output, h2_start, sizeof(h2_start) - 1);
1854                 else if (type == H1_START)
1855                     str_append(parser->output, h1_start, sizeof(h1_start) - 1);
1856
1857                 // jump to top of the loop to process token we scanned during lookahead
1858                 continue;
1859
1860             case H6_END:
1861             case H5_END:
1862             case H4_END:
1863             case H3_END:
1864             case H2_END:
1865             case H1_END:
1866                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1867                 {
1868                     wiki_emit_pending_crlf_if_necessary(parser);
1869                     str_append(parser->output, token->start, TOKEN_LEN(token));
1870                 }
1871                 else
1872                 {
1873                     wiki_rollback_failed_external_link(parser); // if any
1874                     if ((type == H6_END && !IN(H6_START)) ||
1875                         (type == H5_END && !IN(H5_START)) ||
1876                         (type == H4_END && !IN(H4_START)) ||
1877                         (type == H3_END && !IN(H3_START)) ||
1878                         (type == H2_END && !IN(H2_START)) ||
1879                         (type == H1_END && !IN(H1_START)))
1880                     {
1881                         // literal output only if not in appropriate scope (we stay silent in that case)
1882                         wiki_start_para_if_necessary(parser);
1883                         str_append(parser->output, token->start, TOKEN_LEN(token));
1884                     }
1885                 }
1886                 break;
1887
1888             case MAIL:
1889                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1890                 {
1891                     wiki_emit_pending_crlf_if_necessary(parser);
1892                     str_append(parser->output, token->start, TOKEN_LEN(token));
1893                 }
1894                 else
1895                 {
1896                     wiki_pop_excess_elements(parser);
1897                     wiki_start_para_if_necessary(parser);
1898                     token_str->ptr = token->start;
1899                     token_str->len = TOKEN_LEN(token);
1900                     wiki_append_hyperlink(parser, rb_str_new2("mailto:"), token_str, NULL, mailto_class, true);
1901                 }
1902                 break;
1903
1904             case URI:
1905                 if (IN(NO_WIKI_START))
1906                     // user can temporarily suppress autolinking by using <nowiki></nowiki>
1907                     // note that unlike MediaWiki, we do allow autolinking inside PRE blocks
1908                     str_append(parser->output, token->start, TOKEN_LEN(token));
1909                 else if (IN(LINK_START))
1910                 {
1911                     // if the URI were allowed it would have been handled already in LINK_START
1912                     wiki_rollback_failed_internal_link(parser);
1913                     token_str->ptr = token->start;
1914                     token_str->len = TOKEN_LEN(token);
1915                     wiki_append_hyperlink(parser, Qnil, token_str, NULL, parser->external_link_class, true);
1916                 }
1917                 else if (IN(EXT_LINK_START))
1918                 {
1919                     if (parser->link_target->len == 0)
1920                     {
1921                         // this must be our link target: look ahead to make sure we see the space we're expecting to see
1922                         token_str->ptr = token->start;
1923                         token_str->len = TOKEN_LEN(token);
1924                         NEXT_TOKEN();
1925                         if (token->type == SPACE)
1926                         {
1927                             ary_push(parser->scope, SPACE);
1928                             str_append_str(parser->link_target, token_str);
1929                             str_clear(parser->link_text);
1930                             parser->capture     = parser->link_text;
1931                             token               = NULL; // silently consume space
1932                         }
1933                         else
1934                         {
1935                             // didn't see the space! this must be an error
1936                             wiki_pop_from_stack(parser, NULL);
1937                             wiki_pop_excess_elements(parser);
1938                             wiki_start_para_if_necessary(parser);
1939                             str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
1940                             wiki_append_hyperlink(parser, Qnil, token_str, NULL, parser->external_link_class, true);
1941                         }
1942                     }
1943                     else
1944                         str_append(parser->link_text, token->start, TOKEN_LEN(token));
1945                 }
1946                 else
1947                 {
1948                     wiki_pop_excess_elements(parser);
1949                     wiki_start_para_if_necessary(parser);
1950                     token_str->ptr = token->start;
1951                     token_str->len = TOKEN_LEN(token);
1952                     wiki_append_hyperlink(parser, Qnil, token_str, NULL, parser->external_link_class, true);
1953                 }
1954                 break;
1955
1956             case PATH:
1957                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
1958                     str_append(parser->output, token->start, TOKEN_LEN(token));
1959                 else if (IN(EXT_LINK_START))
1960                 {
1961                     if (parser->link_target->len == 0)
1962                     {
1963                         // this must be our link target: look ahead to make sure we see the space we're expecting to see
1964                         token_str->ptr = token->start;
1965                         token_str->len = TOKEN_LEN(token);
1966                         NEXT_TOKEN();
1967                         if (token->type == SPACE)
1968                         {
1969                             ary_push(parser->scope, PATH);
1970                             ary_push(parser->scope, SPACE);
1971                             str_append_str(parser->link_target, token_str);
1972                             str_clear(parser->link_text);
1973                             parser->capture     = parser->link_text;
1974                             token               = NULL; // silently consume space
1975                         }
1976                         else
1977                         {
1978                             // didn't see the space! this must be an error
1979                             wiki_pop_from_stack(parser, NULL);
1980                             wiki_pop_excess_elements(parser);
1981                             wiki_start_para_if_necessary(parser);
1982                             str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
1983                             str_append_str(parser->output, token_str);
1984                         }
1985                     }
1986                     else
1987                         str_append(parser->link_text, token->start, TOKEN_LEN(token));
1988                 }
1989                 else
1990                 {
1991                     output = parser->capture ? parser->capture : parser->output;
1992                     wiki_pop_excess_elements(parser);
1993                     wiki_start_para_if_necessary(parser);
1994                     str_append(output, token->start, TOKEN_LEN(token));
1995                 }
1996                 break;
1997
1998             // internal links (links to other wiki articles) look like this:
1999             //      [[another article]] (would point at, for example, "/wiki/another_article")
2000             //      [[the other article|the link text we'll use for it]]
2001             //      [[the other article | the link text we'll use for it]]
2002             // MediaWiki has strict requirements about what it will accept as a link target:
2003             //      all wikitext markup is disallowed:
2004             //          example [[foo ''bar'' baz]]
2005             //          renders [[foo <em>bar</em> baz]]        (ie. not a link)
2006             //          example [[foo <em>bar</em> baz]]
2007             //          renders [[foo <em>bar</em> baz]]        (ie. not a link)
2008             //          example [[foo <nowiki>''</nowiki> baz]]
2009             //          renders [[foo '' baz]]                  (ie. not a link)
2010             //          example [[foo <bar> baz]]
2011             //          renders [[foo &lt;bar&gt; baz]]         (ie. not a link)
2012             //      HTML entities and non-ASCII, however, make it through:
2013             //          example [[foo &euro;]]
2014             //          renders <a href="/wiki/Foo_%E2%82%AC">foo &euro;</a>
2015             //          example [[foo €]]
2016             //          renders <a href="/wiki/Foo_%E2%82%AC">foo €</a>
2017             // we'll impose similar restrictions here for the link target; allowed tokens will be:
2018             //      SPACE, SPECIAL_URI_CHARS, PRINTABLE, PATH, ALNUM, DEFAULT, QUOT and AMP
2019             // everything else will be rejected
2020             case LINK_START:
2021                 output = parser->capture ? parser->capture : parser->output;
2022                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2023                 {
2024                     wiki_emit_pending_crlf_if_necessary(parser);
2025                     str_append(output, link_start, sizeof(link_start) - 1);
2026                 }
2027                 else if (IN(EXT_LINK_START))
2028                     // already in external link scope! (and in fact, must be capturing link_text right now)
2029                     str_append(output, link_start, sizeof(link_start) - 1);
2030                 else if (IN(LINK_START))
2031                 {
2032                     // already in internal link scope! this is a syntax error
2033                     wiki_rollback_failed_internal_link(parser);
2034                     str_append(parser->output, link_start, sizeof(link_start) - 1);
2035                 }
2036                 else if (IN(SEPARATOR))
2037                 {
2038                     // scanning internal link text
2039                 }
2040                 else // not in internal link scope yet
2041                 {
2042                     // will either emit a link, or the rollback of a failed link, so start the para now
2043                     wiki_pop_excess_elements(parser);
2044                     wiki_start_para_if_necessary(parser);
2045                     ary_push(parser->scope, LINK_START);
2046
2047                     // look ahead and try to gobble up link target
2048                     while (NEXT_TOKEN(), (type = token->type))
2049                     {
2050                         if (type == SPACE               ||
2051                             type == SPECIAL_URI_CHARS   ||
2052                             type == PATH                ||
2053                             type == PRINTABLE           ||
2054                             type == ALNUM               ||
2055                             type == DEFAULT             ||
2056                             type == QUOT                ||
2057                             type == QUOT_ENTITY         ||
2058                             type == AMP                 ||
2059                             type == AMP_ENTITY          ||
2060                             type == IMG_START           ||
2061                             type == IMG_END             ||
2062                             type == LEFT_CURLY          ||
2063                             type == RIGHT_CURLY)
2064                         {
2065                             // accumulate these tokens into link_target
2066                             if (parser->link_target->len == 0)
2067                             {
2068                                 str_clear(parser->link_target);
2069                                 parser->capture = parser->link_target;
2070                             }
2071                             if (type == QUOT_ENTITY)
2072                                 // don't insert the entity, insert the literal quote
2073                                 str_append(parser->link_target, quote, sizeof(quote) - 1);
2074                             else if (type == AMP_ENTITY)
2075                                 // don't insert the entity, insert the literal ampersand
2076                                 str_append(parser->link_target, ampersand, sizeof(ampersand) - 1);
2077                             else
2078                                 str_append(parser->link_target, token->start, TOKEN_LEN(token));
2079                         }
2080                         else if (type == LINK_END)
2081                         {
2082                             if (parser->link_target->len == 0) // bail for inputs like "[[]]"
2083                                 wiki_rollback_failed_internal_link(parser);
2084                             break; // jump back to top of loop (will handle this in LINK_END case below)
2085                         }
2086                         else if (type == SEPARATOR)
2087                         {
2088                             if (parser->link_target->len == 0) // bail for inputs like "[[|"
2089                                 wiki_rollback_failed_internal_link(parser);
2090                             else
2091                             {
2092                                 ary_push(parser->scope, SEPARATOR);
2093                                 str_clear(parser->link_text);
2094                                 parser->capture     = parser->link_text;
2095                                 token               = NULL;
2096                             }
2097                             break;
2098                         }
2099                         else // unexpected token (syntax error)
2100                         {
2101                             wiki_rollback_failed_internal_link(parser);
2102                             break; // jump back to top of loop to handle unexpected token
2103                         }
2104                     }
2105
2106                     // jump to top of the loop to process token we scanned during lookahead (if any)
2107                     continue;
2108                 }
2109                 break;
2110
2111             case LINK_END:
2112                 output = parser->capture ? parser->capture : parser->output;
2113                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2114                 {
2115                     wiki_emit_pending_crlf_if_necessary(parser);
2116                     str_append(output, link_end, sizeof(link_end) - 1);
2117                 }
2118                 else if (IN(EXT_LINK_START))
2119                     // already in external link scope! (and in fact, must be capturing link_text right now)
2120                     str_append(output, link_end, sizeof(link_end) - 1);
2121                 else if (IN(LINK_START)) // in internal link scope!
2122                 {
2123                     if (wiki_blank(parser->link_target))
2124                     {
2125                         // special case for inputs like "[[    ]]"
2126                         wiki_rollback_failed_internal_link(parser);
2127                         str_append(parser->output, link_end, sizeof(link_end) - 1);
2128                         break;
2129                     }
2130                     if (parser->link_text->len == 0 ||
2131                         wiki_blank(parser->link_text))
2132                     {
2133                         // use link target as link text
2134                         str_clear(parser->link_text);
2135                         wiki_append_sanitized_link_target(parser, parser->link_text, true);
2136                     }
2137                     else
2138                         wiki_trim_link_text(parser);
2139                     wiki_encode_link_target(parser);
2140                     wiki_pop_from_stack_up_to(parser, output, LINK_START, true);
2141                     parser->capture = NULL;
2142                     wiki_append_hyperlink(parser, prefix, parser->link_target, parser->link_text, Qnil, false);
2143                     str_clear(parser->link_target);
2144                     str_clear(parser->link_text);
2145                 }
2146                 else // wasn't in internal link scope
2147                 {
2148                     wiki_pop_excess_elements(parser);
2149                     wiki_start_para_if_necessary(parser);
2150                     str_append(output, link_end, sizeof(link_end) - 1);
2151                 }
2152                 break;
2153
2154             // external links look like this:
2155             //      [http://google.com/ the link text]
2156             //      [/other/page/on/site see this page]
2157             // strings in square brackets which don't match this syntax get passed through literally; eg:
2158             //      he was very angery [sic] about the turn of events
2159             case EXT_LINK_START:
2160                 output = parser->capture ? parser->capture : parser->output;
2161                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2162                 {
2163                     wiki_emit_pending_crlf_if_necessary(parser);
2164                     str_append(output, ext_link_start, sizeof(ext_link_start) - 1);
2165                 }
2166                 else if (IN(EXT_LINK_START))
2167                     // already in external link scope! (and in fact, must be capturing link_text right now)
2168                     str_append(output, ext_link_start, sizeof(ext_link_start) - 1);
2169                 else if (IN(LINK_START))
2170                 {
2171                     // already in internal link scope!
2172                     if (parser->link_target->len == 0 || !IN(SPACE))
2173                         str_append(parser->link_target, ext_link_start, sizeof(ext_link_start) - 1);
2174                     else // link target has already been scanned
2175                         str_append(parser->link_text, ext_link_start, sizeof(ext_link_start) - 1);
2176                 }
2177                 else // not in external link scope yet
2178                 {
2179                     // will either emit a link, or the rollback of a failed link, so start the para now
2180                     wiki_pop_excess_elements(parser);
2181                     wiki_start_para_if_necessary(parser);
2182
2183                     // look ahead: expect an absolute URI (with protocol) or "relative" (path) URI
2184                     NEXT_TOKEN();
2185                     if (token->type == URI || token->type == PATH)
2186                         ary_push(parser->scope, EXT_LINK_START);    // so far so good, jump back to the top of the loop
2187                     else
2188                         // only get here if there was a syntax error (missing URI)
2189                         str_append(parser->output, ext_link_start, sizeof(ext_link_start) - 1);
2190                     continue; // jump back to top of loop to handle token (either URI or whatever it is)
2191                 }
2192                 break;
2193
2194             case EXT_LINK_END:
2195                 output = parser->capture ? parser->capture : parser->output;
2196                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2197                 {
2198                     wiki_emit_pending_crlf_if_necessary(parser);
2199                     str_append(output, ext_link_end, sizeof(ext_link_end) - 1);
2200                 }
2201                 else if (IN(EXT_LINK_START))
2202                 {
2203                     if (parser->link_text->len == 0)
2204                         // syntax error: external link with no link text
2205                         wiki_rollback_failed_external_link(parser);
2206                     else
2207                     {
2208                         // success!
2209                         j = IN(PATH) ? Qnil : parser->external_link_class;
2210                         wiki_pop_from_stack_up_to(parser, output, EXT_LINK_START, true);
2211                         parser->capture = NULL;
2212                         wiki_append_hyperlink(parser, Qnil, parser->link_target, parser->link_text, j, false);
2213                     }
2214                     str_clear(parser->link_target);
2215                     str_clear(parser->link_text);
2216                 }
2217                 else
2218                 {
2219                     wiki_pop_excess_elements(parser);
2220                     wiki_start_para_if_necessary(parser);
2221                     str_append(parser->output, ext_link_end, sizeof(ext_link_end) - 1);
2222                 }
2223                 break;
2224
2225             case SEPARATOR:
2226                 output = parser->capture ? parser->capture : parser->output;
2227                 wiki_pop_excess_elements(parser);
2228                 wiki_start_para_if_necessary(parser);
2229                 str_append(output, separator, sizeof(separator) - 1);
2230                 break;
2231
2232             case SPACE:
2233                 output = parser->capture ? parser->capture : parser->output;
2234                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2235                 {
2236                     wiki_emit_pending_crlf_if_necessary(parser);
2237                     str_append(output, token->start, TOKEN_LEN(token));
2238                 }
2239                 else
2240                 {
2241                     // peek ahead to see next token
2242                     char    *token_ptr  = token->start;
2243                     int     token_len   = TOKEN_LEN(token);
2244                     NEXT_TOKEN();
2245                     type = token->type;
2246                     if ((type == H6_END && IN(H6_START)) ||
2247                         (type == H5_END && IN(H5_START)) ||
2248                         (type == H4_END && IN(H4_START)) ||
2249                         (type == H3_END && IN(H3_START)) ||
2250                         (type == H2_END && IN(H2_START)) ||
2251                         (type == H1_END && IN(H1_START)))
2252                     {
2253                         // will suppress emission of space (discard) if next token is a H6_END, H5_END etc and we are in the corresponding scope
2254                     }
2255                     else
2256                     {
2257                         // emit the space
2258                         wiki_pop_excess_elements(parser);
2259                         wiki_start_para_if_necessary(parser);
2260                         str_append(output, token_ptr, token_len);
2261                     }
2262
2263                     // jump to top of the loop to process token we scanned during lookahead
2264                     continue;
2265                 }
2266                 break;
2267
2268             case QUOT_ENTITY:
2269             case AMP_ENTITY:
2270             case NAMED_ENTITY:
2271             case DECIMAL_ENTITY:
2272                 // pass these through unaltered as they are case sensitive
2273                 output = parser->capture ? parser->capture : parser->output;
2274                 wiki_pop_excess_elements(parser);
2275                 wiki_start_para_if_necessary(parser);
2276                 str_append(output, token->start, TOKEN_LEN(token));
2277                 break;
2278
2279             case HEX_ENTITY:
2280                 // normalize hex entities (downcase them)
2281                 output = parser->capture ? parser->capture : parser->output;
2282                 wiki_pop_excess_elements(parser);
2283                 wiki_start_para_if_necessary(parser);
2284                 str_append(output, token->start, TOKEN_LEN(token));
2285                 wiki_downcase_bang(output->ptr + output->len - TOKEN_LEN(token), TOKEN_LEN(token));
2286                 break;
2287
2288             case QUOT:
2289                 output = parser->capture ? parser->capture : parser->output;
2290                 wiki_pop_excess_elements(parser);
2291                 wiki_start_para_if_necessary(parser);
2292                 str_append(output, quot_entity, sizeof(quot_entity) - 1);
2293                 break;
2294
2295             case AMP:
2296                 output = parser->capture ? parser->capture : parser->output;
2297                 wiki_pop_excess_elements(parser);
2298                 wiki_start_para_if_necessary(parser);
2299                 str_append(output, amp_entity, sizeof(amp_entity) - 1);
2300                 break;
2301
2302             case LESS:
2303                 output = parser->capture ? parser->capture : parser->output;
2304                 wiki_pop_excess_elements(parser);
2305                 wiki_start_para_if_necessary(parser);
2306                 str_append(output, lt_entity, sizeof(lt_entity) - 1);
2307                 break;
2308
2309             case GREATER:
2310                 output = parser->capture ? parser->capture : parser->output;
2311                 wiki_pop_excess_elements(parser);
2312                 wiki_start_para_if_necessary(parser);
2313                 str_append(output, gt_entity, sizeof(gt_entity) - 1);
2314                 break;
2315
2316             case IMG_START:
2317                 if (IN_ANY_OF(NO_WIKI_START, PRE, PRE_START))
2318                 {
2319                     wiki_emit_pending_crlf_if_necessary(parser);
2320                     str_append(parser->output, token->start, TOKEN_LEN(token));
2321                 }
2322                 else if (parser->capture)
2323                     str_append(parser->capture, token->start, TOKEN_LEN(token));
2324                 else
2325                 {
2326                     // not currently capturing: will be emitting something on success or failure, so get ready
2327                     wiki_pop_excess_elements(parser);
2328                     wiki_start_para_if_necessary(parser);
2329
2330                     // scan ahead consuming PATH, PRINTABLE, ALNUM and SPECIAL_URI_CHARS tokens
2331                     // will cheat here and abuse the link_target capture buffer to accumulate text
2332                     while (NEXT_TOKEN(), (type = token->type))
2333                     {
2334                         if (type == PATH || type == PRINTABLE || type == ALNUM || type == SPECIAL_URI_CHARS)
2335                             str_append(parser->link_target, token->start, TOKEN_LEN(token));
2336                         else if (type == IMG_END && parser->link_target->len > 0)
2337                         {
2338                             // success
2339                             wiki_append_img(parser, parser->link_target->ptr, parser->link_target->len);
2340                             token = NULL;
2341                             break;
2342                         }
2343                         else // unexpected token or zero-length target (syntax error)
2344                         {
2345                             // rollback
2346                             str_append(parser->output, literal_img_start, sizeof(literal_img_start) - 1);
2347                             if (parser->link_target->len > 0)
2348                                 str_append(parser->output, parser->link_target->ptr, parser->link_target->len);
2349                             break;
2350                         }
2351                     }
2352
2353                     // jump to top of the loop to process token we scanned during lookahead
2354                     str_clear(parser->link_target);
2355                     continue;
2356                 }
2357                 break;
2358
2359             case CRLF:
2360                 i = parser->pending_crlf;
2361                 parser->pending_crlf = false;
2362                 wiki_rollback_failed_link(parser); // if any
2363                 if (IN_EITHER_OF(NO_WIKI_START, PRE_START))
2364                 {
2365                     ary_clear(parser->line_buffer);
2366                     str_append_str(parser->output, parser->line_ending);
2367                     break;
2368                 }
2369                 else if (IN(PRE))
2370                 {
2371                     // beware when BLOCKQUOTE on line buffer (not line stack!) prior to CRLF, that must be end of PRE block
2372                     if (ary_entry(parser->line_buffer, -2) == BLOCKQUOTE)
2373                         // don't emit in this case
2374                         wiki_pop_from_stack_up_to(parser, parser->output, PRE, true);
2375                     else
2376                     {
2377                         if (ary_entry(parser->line_buffer, -2) == PRE)
2378                         {
2379                              // only thing on line is the PRE: emit pending line ending (if we had one)
2380                              if (i)
2381                                  str_append_str(parser->output, parser->line_ending);
2382                         }
2383
2384                         // clear these _before_ calling NEXT_TOKEN (NEXT_TOKEN adds to the line_buffer)
2385                         ary_clear(parser->line);
2386                         ary_clear(parser->line_buffer);
2387
2388                         // peek ahead to see if this is definitely the end of the PRE block
2389                         NEXT_TOKEN();
2390                         type = token->type;
2391                         if (type != BLOCKQUOTE && type != PRE)
2392                             // this is definitely the end of the block, so don't emit
2393                             wiki_pop_from_stack_up_to(parser, parser->output, PRE, true);
2394                         else
2395                             // potentially will emit
2396                             parser->pending_crlf = true;
2397
2398                         continue; // jump back to top of loop to handle token grabbed via lookahead
2399                     }
2400                 }
2401                 else
2402                 {
2403                     parser->pending_crlf = true;
2404
2405                     // count number of BLOCKQUOTE tokens in line buffer (can be zero) and pop back to that level
2406                     // as a side effect, this handles any open span-level elements and unclosed blocks
2407                     // (with special handling for P blocks and LI elements)
2408                     i = ary_count(parser->line, BLOCKQUOTE) + ary_count(parser->scope, BLOCKQUOTE_START);
2409                     for (j = parser->scope->count; j > i; j--)
2410                     {
2411                         if (parser->scope->count > 0 && ary_entry(parser->scope, -1) == LI)
2412                         {
2413                             parser->pending_crlf = false;
2414                             break;
2415                         }
2416
2417                         // special handling on last iteration through the loop if the top item on the scope is a P block
2418                         if ((j - i == 1) && ary_entry(parser->scope, -1) == P)
2419                         {
2420                             // if nothing or BLOCKQUOTE on line buffer (not line stack!) prior to CRLF, this must be a paragraph break
2421                             // (note that we have to make sure we're not inside a BLOCKQUOTE_START block
2422                             // because in those blocks BLOCKQUOTE tokens have no special meaning)
2423                             if (NO_ITEM(ary_entry(parser->line_buffer, -2)) ||
2424                                 (ary_entry(parser->line_buffer, -2) == BLOCKQUOTE && !IN(BLOCKQUOTE_START)))
2425                                 // paragraph break
2426                                 parser->pending_crlf = false;
2427                             else
2428                                 // not a paragraph break!
2429                                 continue;
2430                         }
2431                         wiki_pop_from_stack(parser, NULL);
2432                     }
2433                 }
2434
2435                 // delete the entire contents of the line scope stack and buffer
2436                 ary_clear(parser->line);
2437                 ary_clear(parser->line_buffer);
2438                 break;
2439
2440             case SPECIAL_URI_CHARS:
2441             case PRINTABLE:
2442             case ALNUM:
2443             case IMG_END:
2444             case LEFT_CURLY:
2445             case RIGHT_CURLY:
2446                 output = parser->capture ? parser->capture : parser->output;
2447                 wiki_pop_excess_elements(parser);
2448                 wiki_start_para_if_necessary(parser);
2449                 str_append(output, token->start, TOKEN_LEN(token));
2450                 break;
2451
2452             case DEFAULT:
2453                 output = parser->capture ? parser->capture : parser->output;
2454                 wiki_pop_excess_elements(parser);
2455                 wiki_start_para_if_necessary(parser);
2456                 wiki_append_entity_from_utf32_char(output, token->code_point);
2457                 break;
2458
2459             case END_OF_FILE:
2460                 // special case for input like " foo\n " (see pre_spec.rb)
2461                 if (IN(PRE) &&
2462                     ary_entry(parser->line_buffer, -2) == PRE &&
2463                     parser->pending_crlf)
2464                     str_append(parser->output, parser->line_ending->ptr, parser->line_ending->len);
2465
2466                 // close any open scopes on hitting EOF
2467                 wiki_rollback_failed_link(parser); // if any
2468                 wiki_pop_all_from_stack(parser);
2469                 goto return_output; // break not enough here (want to break out of outer while loop, not inner switch statement)
2470
2471             default:
2472                 break;
2473         }
2474
2475         // reset current token; forcing lexer to return another token at the top of the loop
2476         token = NULL;
2477     } while (1);
2478 return_output:
2479     // nasty hack to avoid re-allocating our return value
2480     str_append(parser->output, null_str, 1); // null-terminate
2481     len = parser->output->len - 1; // don't count null termination
2482
2483 #if defined(RUBY_1_9_x)
2484     VALUE out = rb_str_buf_new(RSTRING_EMBED_LEN_MAX + 1);
2485     free(RSTRING_PTR(out));
2486     RSTRING(out)->as.heap.aux.capa = len;
2487     RSTRING(out)->as.heap.ptr = parser->output->ptr;
2488     RSTRING(out)->as.heap.len = len;
2489 #elif defined(RUBY_1_8_x)
2490     VALUE out = rb_str_new2("");
2491     free(RSTRING_PTR(out));
2492     RSTRING(out)->len = len;
2493     RSTRING(out)->aux.capa = len;
2494     RSTRING(out)->ptr = parser->output->ptr;
2495 #else
2496 #error unsupported RUBY_VERSION
2497 #endif
2498     parser->output->ptr = NULL; // don't double-free
2499     return out;
2500 }