new version
[Chiptunes.git] / foo.c
diff --git a/foo.c b/foo.c
index 45b8fc13d4be407f96f0ef53689a17e8176f38fc..ac7d6ad37c07babff4d9618fc9edbd89a796d84f 100644 (file)
--- a/foo.c
+++ b/foo.c
 #include "fakeasm.h"
 typedef unsigned char u8;
 
-u8 data[] = {   
-       0x84, 0x9d, 0xb0, 0x69, 0x9d, 0x84, 0x69, 0x58,
-       0x75, 0x8c, 0xb0, 0x69, 0x8c, 0x75, 0x69, 0x58
+u8 zero;       //r16
+u8 acc;                //r17
+u8 i0;         //r18
+u8 i1;         //r19
+u8 i2;         //r20
+u8 i3;         //r21
+u8 n;          //r22
+u8 s;          //r23
+u8 _;          //r24
+               //r25
+u8 x;/*==Ml*/  //r26 (Xlo)
+u8 t;/*==Mh*/  //r27 (Xhi)
+               //r28
+               //r29
+void *Z;       //r30 (Zlo)
+/*...*/                //r31 (Zhi)
+#define Mh x //mod3 vars
+#define Ml t // -"-
+
+// .section .data
+u8 data[] = {
+       /*.byte*/ 0x84, 0x9d, 0xb0, 0x69, 0x9d, 0x84, 0x69, 0x58,
+       /*.byte*/ 0x75, 0x8c, 0xb0, 0x69, 0x8c, 0x75, 0x69, 0x58
 };
-u8 i0;
-u8 i1;
-u8 i2;
-u8 i3;
-u8 x;
-u8 t;
-u8 o;
+
+// .section .text
+
+//http://homepage.divms.uiowa.edu/~jones/bcd/mod.shtml
+void mod3(void) {
+       // mod3(Mh.Ml) -> t
+       #define tmp _
+       ADD     (Ml, Mh)
+       CLR     (Mh)
+       ADC     (Mh, zero, carry) //Mh only holds the carry bit
+       MOV     (tmp, Ml)
+       SWAP    (tmp)
+       ANDI    (tmp, 0x0f)
+       SWAP    (Mh)
+       OR      (tmp, Mh)
+       ANDI    (Ml, 0x0f)
+       ADD     (Ml, tmp)
+       MOV     (tmp, Ml)
+       LSR     (tmp)
+       LSR     (tmp)
+       ANDI    (Ml, 0x03)
+       ADD     (Ml, tmp)
+       MOV     (tmp, Ml)
+       LSR     (tmp)
+       LSR     (tmp)
+       ANDI    (Ml, 0x03)
+       ADD     (Ml, tmp)
+       CPI     (Ml, 3)
+       BRPL    (skip)
+       SUBI    (Ml, 3)
+       skip:;
+       RET
+       #undef tmp
+}
+//.macro definitions for mul-tree:
+#define always(_bit) //nop; for when a test() is not necessary (see tree)
+#define never(_bit)  //nop; for when a test() is not necessary (see tree)
+#define test(_bit,_jmpto) \
+       SBRC    (t, _bit) \
+       RJMP    (_jmpto)
+#define shift16 \
+       LSR     (a2) \
+       ROR     (a1)
+#define shift8 /*top three bits don't need to be corrrect, so save cycles by not carrying*/ \
+       LSR     (a1)
+#define shift0 //nop; last shift is common
+#define add_shift16 \
+       ADD     (a1, i0) \
+       ADC     (a2, i1, carry) \
+       shift16
+#define add_shift8 /*ditto with carrying*/ \
+       ADD     (a1, i0) \
+       shift8
+#define add_shift0 /*last shift is common*/ \
+       ADD     (a1, i0)
 void g(void) {
-       // g(i, x, t, o) -> t
-       u8 tmp;
+       // g(i, t) -> t
+       // tempvars: `x` and `_`
+       #define tmp _
        ANDI    (t, 0x07)
        MOV     (tmp, i2)
        ANDI    (tmp, 3)
        TST     (tmp)
-       BREQ    (skip)
+       CPSE    (tmp, zero)
        SUBI    (t, -8)
-       skip:
-       t = data[t];
-       t = ((i3<<24|i2<<16|i1<<8|i0)*t) >> o;
-       AND     (t, x)
-       ANDI    (t, 3)
-       RET
+       #undef tmp
+
+       #define tmp _
+       MOV     (tmp, t) //NOTE: must move value away from `t`, as that is also hi(X)
+       tmp = data[tmp];/*
+       LDI     Xhi, hi8(data)
+       LDI     Xlo, lo8(data)
+       ADD     Xlo, tmp  ;<-- the offset (formerly `t`) into data[]
+       ADC     Xhi, zero
+       LD      tmp, X */
+       MOV     (t, tmp)
+       #undef tmp
+
+       #define a1 x
+       #define a2 _
+       #define a0 t
+       CLR     (a2)
+       CLR     (a1)
+
+       /* decision tree multiplication saves cycles and (hopefully) reduces code size
+                            _xxx?
+                        /           \
+                  _xx?0                _xx1?
+                    |                    |
+                  _x?00                _x?01
+                /       \             /     \
+           _?000         _?100      _?001    _?101
+           /   \         /   \        |      /   \
+        _0000 _1000   _0100 _1100   _1001 _0101 _1101
+          |     |       |     |       |     |     |
+         ...   ...     ...   ...     ...   ...   ...
+          |     |       |     |       |     |     |
+          B0    58     84    8C      69     75    9D   */
+               test    (0, m____1)
+       m____0: shift16
+               never   (1)
+       m___00: shift16
+               test    (2, m__100)
+       m__000: shift16
+               test    (3, m_1000)
+       m_0000: shift16
+               always  (4)
+               add_shift16
+               always  (5)
+               add_shift8
+               never   (6)
+               shift8
+               always  (7)
+               add_shift0
+               RJMP    (end_mul) // calc'd 0xb0
+
+       m_1000: add_shift16
+               always  (4)
+               add_shift16
+               never   (5)
+               shift8
+               always  (6)
+               add_shift8
+               never   (7)
+               shift0
+               RJMP    (end_mul) // calc'd 0x58
+
+       m__100: add_shift16
+               test    (3, m_1100)
+       m_0100: shift16
+               RJMP    (upper_8) //'ll calc 0x84
+
+       m_1100: add_shift16
+       upper_8: /* used twice, so deduplicated */
+               never   (4)
+               shift16
+               never   (5)
+               shift8
+               never   (6)
+               shift8
+               always  (7)
+               add_shift0
+               RJMP    (end_mul) // calc'd 0x8c
+
+       m____1: add_shift16
+               never   (1)
+       m___01: shift16
+               test    (2, m__101)
+       m__001: shift16
+               always  (3)
+       m_1001: add_shift16
+               never   (4)
+               shift16
+               always  (5)
+               add_shift8
+               always  (6)
+               add_shift8
+               never   (7)
+               shift0
+               RJMP    (end_mul) // calc'd 0x69
+
+       m__101: add_shift16
+               test    (3, m_1101)
+       m_0101: shift16
+               always  (4)
+               add_shift16
+               always  (5)
+               add_shift8
+               always  (6)
+               add_shift8
+               never   (7)
+               shift0
+               RJMP    (end_mul) // calc'd 0x75
+
+       m_1101: add_shift16
+               always  (4)
+               add_shift16
+               never   (5)
+               shift8
+               never   (6)
+               shift8
+               always  (7)
+               add_shift0
+               // calc'd 0x9d
+
+       end_mul:
+               LSR (a1) //final shift is a common operation for all
+
+       MOV     (t, a1) //TODO: use a1 in main() directly
+       #undef a0
+       #undef a1
+       #undef a2
+       RET //TODO: replace CALL/RET with IJMP? (requires undoing goto-mul-hack)
 };
 
 int main(void) {
-       u8 n;
-       u8 s;
-       u8 acc;
-       //TODO: clear all vars/registers
+       CLR     (zero)
+       CLR     (i0)
+       CLR     (i1)
+       CLR     (i2)
+       CLR     (i3)
        for (;;) {
-               acc = 0;
-               n = (i2<<2 | i1>>6);
-               s = (i3<<7 | i2>>1);
+               MOV     (n, i2)
+               LSL     (n)
+               LSL     (n)
+               #define tmp _
+               MOV     (tmp, i1)
+               SWAP    (tmp)
+               ANDI    (tmp, 0x0f)
+               LSR     (tmp)
+               LSR     (tmp)
+               OR      (n, tmp)
+               #undef tmp
+               MOV     (s, i3)
+               LSR     (s)
+               ROR     (s)
+               ANDI    (s, 0x80)
+               #define tmp _
+               MOV     (tmp, i2)
+               LSR     (tmp)
+               OR      (s, tmp)
+               #undef tmp
 
                //voice 1:
-               LDI     (x, 1)
                MOV     (t, n)
-               LDI     (o, 12)
                RCALL   g();
+               SWAP    (t)
+               ANDI    (t, 1)
                MOV     (acc, t)
 
                //voice 2:
-               MOV     (x, s)
-               #define tmp o
+               #define tmp _
                MOV     (tmp, i2)
                LSL     (tmp)
                LSL     (tmp)
@@ -61,31 +269,113 @@ int main(void) {
                OR      (t, tmp)
                #undef tmp
                EOR     (t, n)
-               LDI     (o, 10)
                RCALL   g();
+               LSR     (t)
+               LSR     (t)
+               ANDI    (t, 3)
+               AND     (t, s)
                ADD     (acc, t)
 
                //voice 3:
-               x = s / 3;
-               t = n + ((i3<<13 | i2<<5 | i1>>3) % 3);
-               LDI     (o, 10)
+               MOV     (Ml, i2)
+               SWAP    (Ml)
+               ANDI    (Ml, 0xf0)
+               LSL     (Ml)
+               #define tmp _
+               MOV     (tmp, i1)
+               LSR     (tmp)
+               LSR     (tmp)
+               LSR     (tmp)
+               OR      (Ml, tmp)
+               #undef tmp
+               MOV     (Mh, i3)
+               SWAP    (Mh)
+               ANDI    (Mh, 0xf0)
+               LSL     (Mh)
+               #define tmp _
+               MOV     (tmp, i2)
+               LSR     (tmp)
+               LSR     (tmp)
+               LSR     (tmp)
+               OR      (Mh, tmp)
+               #undef tmp
+               RCALL   mod3();
+               ADD     (t, n)
                RCALL   g();
+               LSR     (t)
+               LSR     (t)
+               ANDI    (t, 3)
+               MOV     (x, s)
+               INC     (x)
+               #define tmp _
+               MOV     (tmp, x)
+               LSR     (tmp)
+               LSR     (tmp)
+               ADD     (tmp, x)
+               ROR     (tmp)
+               LSR     (tmp)
+               ADD     (tmp, x)
+               ROR     (tmp)
+               LSR     (tmp)
+               ADD     (tmp, x)
+               ROR     (tmp)
+               LSR     (tmp)
+               AND     (t, tmp)
+               #undef tmp
                ADD     (acc, t)
 
                //voice 4:
-               x = s / 5;
-               t = 8 + n - ((i3<<14 | i2<<6 | i1>>2) % 3);
-               LDI     (o, 9)
+               MOV     (Ml, i2)
+               SWAP    (Ml)
+               ANDI    (Ml, 0xf0)
+               LSL     (Ml)
+               LSL     (Ml)
+               #define tmp _
+               MOV     (tmp, i1)
+               LSR     (tmp)
+               LSR     (tmp)
+               OR      (Ml, tmp)
+               #undef tmp
+               MOV     (Mh, i3)
+               SWAP    (Mh)
+               ANDI    (Mh, 0xf0)
+               LSL     (Mh)
+               LSL     (Mh)
+               #define tmp _
+               MOV     (tmp, i2)
+               LSR     (tmp)
+               LSR     (tmp)
+               OR      (Mh, tmp)
+               #undef tmp
+               RCALL   mod3();
+               SUB     (t, n)
+               NEG     (t)
+               SUBI    (t, -8)
                RCALL   g();
+               LSR     (t)
+               ANDI    (t, 3)
+               INC     (s)
+               #define tmp _
+                MOV    (tmp, s)
+               LSR     (tmp)
+                ADD    (tmp, s)
+               ROR     (tmp)
+               LSR     (tmp)
+               LSR     (tmp)
+                ADD    (tmp, s)
+               ROR     (tmp)
+                ADD    (tmp, s)
+               ROR     (tmp)
+               LSR     (tmp)
+               LSR     (tmp)
+               AND     (t, tmp)
+               #undef tmp
                ADD     (acc, t)
 
-               putchar(acc<<4);
-               #define tmp acc
-               LDI     (tmp, 0)
+               putchar(acc<<4); //TODO
                SUBI    (i0, -1)
-               ADC     (i1, tmp, !i0)
-               ADC     (i2, tmp, !i0&&!i1)
-               ADC     (i3, tmp, !i0&&!i1&&!i2)
-               #undef tmp
+               ADC     (i1, zero, !i0) //XXX: must use "sbci i1,-1" in the assembly version
+               ADC     (i2, zero, !i0&&!i1) //          sbci i2,-1
+               ADC     (i3, zero, !i0&&!i1&&!i2) //     sbci i3,-1
        }
 }
Imprint / Impressum