source: CLRX/CLRadeonExtender/trunk/amdasm/AsmRegAlloc.cpp @ 3883

Last change on this file since 3883 was 3883, checked in by matszpk, 14 months ago

CLRadeonExtender: AsmRegAlloc?: Fix for stupid bug in revertRetSSAIdMap (checking rfit whether it is not end).

File size: 113.9 KB
Line 
1/*
2 *  CLRadeonExtender - Unofficial OpenCL Radeon Extensions Library
3 *  Copyright (C) 2014-2018 Mateusz Szpakowski
4 *
5 *  This library is free software; you can redistribute it and/or
6 *  modify it under the terms of the GNU Lesser General Public
7 *  License as published by the Free Software Foundation; either
8 *  version 2.1 of the License, or (at your option) any later version.
9 *
10 *  This library is distributed in the hope that it will be useful,
11 *  but WITHOUT ANY WARRANTY; without even the implied warranty of
12 *  MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU
13 *  Lesser General Public License for more details.
14 *
15 *  You should have received a copy of the GNU Lesser General Public
16 *  License along with this library; if not, write to the Free Software
17 *  Foundation, Inc., 51 Franklin Street, Fifth Floor, Boston, MA  02110-1301  USA
18 */
19
20#include <CLRX/Config.h>
21#include <iostream>
22#include <stack>
23#include <deque>
24#include <vector>
25#include <utility>
26#include <unordered_set>
27#include <map>
28#include <set>
29#include <unordered_map>
30#include <algorithm>
31#include <CLRX/utils/Utilities.h>
32#include <CLRX/utils/Containers.h>
33#include <CLRX/amdasm/Assembler.h>
34#include "AsmInternals.h"
35
36using namespace CLRX;
37
38typedef AsmRegAllocator::CodeBlock CodeBlock;
39typedef AsmRegAllocator::NextBlock NextBlock;
40typedef AsmRegAllocator::SSAInfo SSAInfo;
41typedef std::pair<const AsmSingleVReg, SSAInfo> SSAEntry;
42
43ISAUsageHandler::ISAUsageHandler(const std::vector<cxbyte>& _content) :
44            content(_content), lastOffset(0), readOffset(0), instrStructPos(0),
45            regUsagesPos(0), regUsages2Pos(0), regVarUsagesPos(0),
46            pushedArgs(0), argPos(0), argFlags(0), isNext(false), useRegMode(false)
47{ }
48
49ISAUsageHandler::~ISAUsageHandler()
50{ }
51
52void ISAUsageHandler::rewind()
53{
54    readOffset = instrStructPos = 0;
55    regUsagesPos = regUsages2Pos = regVarUsagesPos = 0;
56    useRegMode = false;
57    pushedArgs = 0;
58    skipBytesInInstrStruct();
59}
60
61void ISAUsageHandler::skipBytesInInstrStruct()
62{
63    // do not add instruction size if usereg (usereg immediately before instr regusages)
64    if ((instrStructPos != 0 || argPos != 0) && !useRegMode)
65        readOffset += defaultInstrSize;
66    argPos = 0;
67    for (;instrStructPos < instrStruct.size() &&
68        instrStruct[instrStructPos] > 0x80; instrStructPos++)
69        readOffset += (instrStruct[instrStructPos] & 0x7f);
70    isNext = (instrStructPos < instrStruct.size());
71}
72
73void ISAUsageHandler::putSpace(size_t offset)
74{
75    if (lastOffset != offset)
76    {
77        flush(); // flush before new instruction
78        // useReg immediately before instruction regusages
79        size_t defaultInstrSize = (!useRegMode ? this->defaultInstrSize : 0);
80        if (lastOffset > offset)
81            throw AsmException("Offset before previous instruction");
82        if (!instrStruct.empty() && offset - lastOffset < defaultInstrSize)
83            throw AsmException("Offset between previous instruction");
84        size_t toSkip = !instrStruct.empty() ? 
85                offset - lastOffset - defaultInstrSize : offset;
86        while (toSkip > 0)
87        {
88            size_t skipped = std::min(toSkip, size_t(0x7f));
89            instrStruct.push_back(skipped | 0x80);
90            toSkip -= skipped;
91        }
92        lastOffset = offset;
93        argFlags = 0;
94        pushedArgs = 0;
95    } 
96}
97
98void ISAUsageHandler::pushUsage(const AsmRegVarUsage& rvu)
99{
100    if (lastOffset == rvu.offset && useRegMode)
101        flush(); // only flush if useRegMode and no change in offset
102    else // otherwise
103        putSpace(rvu.offset);
104    useRegMode = false;
105    if (rvu.regVar != nullptr)
106    {
107        argFlags |= (1U<<pushedArgs);
108        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
109            rvu.rwFlags, rvu.align });
110    }
111    else // reg usages
112        regUsages.push_back({ rvu.regField,cxbyte(rvu.rwFlags |
113                    getRwFlags(rvu.regField, rvu.rstart, rvu.rend)) });
114    pushedArgs++;
115}
116
117void ISAUsageHandler::pushUseRegUsage(const AsmRegVarUsage& rvu)
118{
119    if (lastOffset == rvu.offset && !useRegMode)
120        flush(); // only flush if useRegMode and no change in offset
121    else // otherwise
122        putSpace(rvu.offset);
123    useRegMode = true;
124    if (pushedArgs == 0 || pushedArgs == 256)
125    {
126        argFlags = 0;
127        pushedArgs = 0;
128        instrStruct.push_back(0x80); // sign of regvarusage from usereg
129        instrStruct.push_back(0);
130    }
131    if (rvu.regVar != nullptr)
132    {
133        argFlags |= (1U<<(pushedArgs & 7));
134        regVarUsages.push_back({ rvu.regVar, rvu.rstart, rvu.rend, rvu.regField,
135            rvu.rwFlags, rvu.align });
136    }
137    else // reg usages
138        regUsages2.push_back({ rvu.rstart, rvu.rend, rvu.rwFlags });
139    pushedArgs++;
140    if ((pushedArgs & 7) == 0) // just flush per 8 bit
141    {
142        instrStruct.push_back(argFlags);
143        instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
144        argFlags = 0;
145    }
146}
147
148void ISAUsageHandler::flush()
149{
150    if (pushedArgs != 0)
151    {
152        if (!useRegMode)
153        {
154            // normal regvarusages
155            instrStruct.push_back(argFlags);
156            if ((argFlags & (1U<<(pushedArgs-1))) != 0)
157                regVarUsages.back().rwFlags |= 0x80;
158            else // reg usages
159                regUsages.back().rwFlags |= 0x80;
160        }
161        else
162        {
163            // use reg regvarusages
164            if ((pushedArgs & 7) != 0) //if only not pushed args remains
165                instrStruct.push_back(argFlags);
166            instrStruct[instrStruct.size() - ((pushedArgs+7) >> 3) - 1] = pushedArgs;
167        }
168    }
169}
170
171AsmRegVarUsage ISAUsageHandler::nextUsage()
172{
173    if (!isNext)
174        throw AsmException("No reg usage in this code");
175    AsmRegVarUsage rvu;
176    // get regvarusage
177    bool lastRegUsage = false;
178    rvu.offset = readOffset;
179    if (!useRegMode && instrStruct[instrStructPos] == 0x80)
180    {
181        // useRegMode (begin fetching useregs)
182        useRegMode = true;
183        argPos = 0;
184        instrStructPos++;
185        // pushedArgs - numer of useregs, 0 - 256 useregs
186        pushedArgs = instrStruct[instrStructPos++];
187        argFlags = instrStruct[instrStructPos];
188    }
189    rvu.useRegMode = useRegMode; // no ArgPos
190   
191    if ((instrStruct[instrStructPos] & (1U << (argPos&7))) != 0)
192    {
193        // regvar usage
194        const AsmRegVarUsageInt& inRVU = regVarUsages[regVarUsagesPos++];
195        rvu.regVar = inRVU.regVar;
196        rvu.rstart = inRVU.rstart;
197        rvu.rend = inRVU.rend;
198        rvu.regField = inRVU.regField;
199        rvu.rwFlags = inRVU.rwFlags & ASMRVU_ACCESS_MASK;
200        rvu.align = inRVU.align;
201        if (!useRegMode)
202            lastRegUsage = ((inRVU.rwFlags&0x80) != 0);
203    }
204    else if (!useRegMode)
205    {
206        // simple reg usage
207        const AsmRegUsageInt& inRU = regUsages[regUsagesPos++];
208        rvu.regVar = nullptr;
209        const std::pair<uint16_t, uint16_t> regPair =
210                    getRegPair(inRU.regField, inRU.rwFlags);
211        rvu.rstart = regPair.first;
212        rvu.rend = regPair.second;
213        rvu.rwFlags = (inRU.rwFlags & ASMRVU_ACCESS_MASK);
214        rvu.regField = inRU.regField;
215        rvu.align = 0;
216        lastRegUsage = ((inRU.rwFlags&0x80) != 0);
217    }
218    else
219    {
220        // use reg (simple reg usage, second structure)
221        const AsmRegUsage2Int& inRU = regUsages2[regUsages2Pos++];
222        rvu.regVar = nullptr;
223        rvu.rstart = inRU.rstart;
224        rvu.rend = inRU.rend;
225        rvu.rwFlags = inRU.rwFlags;
226        rvu.regField = ASMFIELD_NONE;
227        rvu.align = 0;
228    }
229    argPos++;
230    if (useRegMode)
231    {
232        // if inside useregs
233        if (argPos == (pushedArgs&0xff))
234        {
235            instrStructPos++; // end
236            skipBytesInInstrStruct();
237            useRegMode = false;
238        }
239        else if ((argPos & 7) == 0) // fetch new flag
240        {
241            instrStructPos++;
242            argFlags = instrStruct[instrStructPos];
243        }
244    }
245    // after instr
246    if (lastRegUsage)
247    {
248        instrStructPos++;
249        skipBytesInInstrStruct();
250    }
251    return rvu;
252}
253
254AsmRegAllocator::AsmRegAllocator(Assembler& _assembler) : assembler(_assembler)
255{ }
256
257static inline bool codeBlockStartLess(const AsmRegAllocator::CodeBlock& c1,
258                  const AsmRegAllocator::CodeBlock& c2)
259{ return c1.start < c2.start; }
260
261static inline bool codeBlockEndLess(const AsmRegAllocator::CodeBlock& c1,
262                  const AsmRegAllocator::CodeBlock& c2)
263{ return c1.end < c2.end; }
264
265void AsmRegAllocator::createCodeStructure(const std::vector<AsmCodeFlowEntry>& codeFlow,
266             size_t codeSize, const cxbyte* code)
267{
268    ISAAssembler* isaAsm = assembler.isaAssembler;
269    if (codeSize == 0)
270        return;
271    std::vector<size_t> splits;
272    std::vector<size_t> codeStarts;
273    std::vector<size_t> codeEnds;
274    codeStarts.push_back(0);
275    codeEnds.push_back(codeSize);
276    for (const AsmCodeFlowEntry& entry: codeFlow)
277    {
278        size_t instrAfter = 0;
279        if (entry.type == AsmCodeFlowType::JUMP || entry.type == AsmCodeFlowType::CJUMP ||
280            entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::RETURN)
281            instrAfter = entry.offset + isaAsm->getInstructionSize(
282                        codeSize - entry.offset, code + entry.offset);
283       
284        switch(entry.type)
285        {
286            case AsmCodeFlowType::START:
287                codeStarts.push_back(entry.offset);
288                break;
289            case AsmCodeFlowType::END:
290                codeEnds.push_back(entry.offset);
291                break;
292            case AsmCodeFlowType::JUMP:
293                splits.push_back(entry.target);
294                codeEnds.push_back(instrAfter);
295                break;
296            case AsmCodeFlowType::CJUMP:
297                splits.push_back(entry.target);
298                splits.push_back(instrAfter);
299                break;
300            case AsmCodeFlowType::CALL:
301                splits.push_back(entry.target);
302                splits.push_back(instrAfter);
303                break;
304            case AsmCodeFlowType::RETURN:
305                codeEnds.push_back(instrAfter);
306                break;
307            default:
308                break;
309        }
310    }
311    std::sort(splits.begin(), splits.end());
312    splits.resize(std::unique(splits.begin(), splits.end()) - splits.begin());
313    std::sort(codeEnds.begin(), codeEnds.end());
314    codeEnds.resize(std::unique(codeEnds.begin(), codeEnds.end()) - codeEnds.begin());
315    // remove codeStarts between codeStart and codeEnd
316    size_t i = 0;
317    size_t ii = 0;
318    size_t ei = 0; // codeEnd i
319    while (i < codeStarts.size())
320    {
321        size_t end = (ei < codeEnds.size() ? codeEnds[ei] : SIZE_MAX);
322        if (ei < codeEnds.size())
323            ei++;
324        codeStarts[ii++] = codeStarts[i];
325        // skip codeStart to end
326        for (i++ ;i < codeStarts.size() && codeStarts[i] < end; i++);
327    }
328    codeStarts.resize(ii);
329    // add next codeStarts
330    auto splitIt = splits.begin();
331    for (size_t codeEnd: codeEnds)
332    {
333        auto it = std::lower_bound(splitIt, splits.end(), codeEnd);
334        if (it != splits.end())
335        {
336            codeStarts.push_back(*it);
337            splitIt = it;
338        }
339        else // if end
340            break;
341    }
342   
343    std::sort(codeStarts.begin(), codeStarts.end());
344    codeStarts.resize(std::unique(codeStarts.begin(), codeStarts.end()) -
345                codeStarts.begin());
346    // divide to blocks
347    splitIt = splits.begin();
348    for (size_t codeStart: codeStarts)
349    {
350        size_t codeEnd = *std::upper_bound(codeEnds.begin(), codeEnds.end(), codeStart);
351        splitIt = std::lower_bound(splitIt, splits.end(), codeStart);
352       
353        if (splitIt != splits.end() && *splitIt==codeStart)
354            ++splitIt; // skip split in codeStart
355       
356        for (size_t start = codeStart; start < codeEnd; )
357        {
358            size_t end = codeEnd;
359            if (splitIt != splits.end())
360            {
361                end = std::min(end, *splitIt);
362                ++splitIt;
363            }
364            codeBlocks.push_back({ start, end, { }, false, false, false });
365            start = end;
366        }
367    }
368    // force empty block at end if some jumps goes to its
369    if (!codeEnds.empty() && !codeStarts.empty() && !splits.empty() &&
370        codeStarts.back()==codeEnds.back() && codeStarts.back() == splits.back())
371        codeBlocks.push_back({ codeStarts.back(), codeStarts.back(), { },
372                             false, false, false });
373   
374    // construct flow-graph
375    for (const AsmCodeFlowEntry& entry: codeFlow)
376        if (entry.type == AsmCodeFlowType::CALL || entry.type == AsmCodeFlowType::JUMP ||
377            entry.type == AsmCodeFlowType::CJUMP || entry.type == AsmCodeFlowType::RETURN)
378        {
379            std::vector<CodeBlock>::iterator it;
380            size_t instrAfter = entry.offset + isaAsm->getInstructionSize(
381                        codeSize - entry.offset, code + entry.offset);
382           
383            if (entry.type != AsmCodeFlowType::RETURN)
384                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
385                        CodeBlock{ entry.target }, codeBlockStartLess);
386            else // return
387            {
388                it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
389                        CodeBlock{ 0, instrAfter }, codeBlockEndLess);
390                // if block have return
391                if (it != codeBlocks.end())
392                    it->haveEnd = it->haveReturn = true;
393                continue;
394            }
395           
396            if (it == codeBlocks.end())
397                continue; // error!
398            auto it2 = std::lower_bound(codeBlocks.begin(), codeBlocks.end(),
399                    CodeBlock{ instrAfter }, codeBlockStartLess);
400            auto curIt = it2;
401            --curIt;
402           
403            curIt->nexts.push_back({ size_t(it - codeBlocks.begin()),
404                        entry.type == AsmCodeFlowType::CALL });
405            curIt->haveCalls |= entry.type == AsmCodeFlowType::CALL;
406            if (entry.type == AsmCodeFlowType::CJUMP ||
407                 entry.type == AsmCodeFlowType::CALL)
408            {
409                curIt->haveEnd = false; // revert haveEnd if block have cond jump or call
410                if (it2 != codeBlocks.end() && entry.type == AsmCodeFlowType::CJUMP)
411                    // add next next block (only for cond jump)
412                    curIt->nexts.push_back({ size_t(it2 - codeBlocks.begin()), false });
413            }
414            else if (entry.type == AsmCodeFlowType::JUMP)
415                curIt->haveEnd = true; // set end
416        }
417    // force haveEnd for block with cf_end
418    for (const AsmCodeFlowEntry& entry: codeFlow)
419        if (entry.type == AsmCodeFlowType::END)
420        {
421            auto it = binaryFind(codeBlocks.begin(), codeBlocks.end(),
422                    CodeBlock{ 0, entry.offset }, codeBlockEndLess);
423            if (it != codeBlocks.end())
424                it->haveEnd = true;
425        }
426   
427    if (!codeBlocks.empty()) // always set haveEnd to last block
428        codeBlocks.back().haveEnd = true;
429   
430    // reduce nexts
431    for (CodeBlock& block: codeBlocks)
432    {
433        // first non-call nexts, for correct resolving SSA conflicts
434        std::sort(block.nexts.begin(), block.nexts.end(),
435                  [](const NextBlock& n1, const NextBlock& n2)
436                  { return int(n1.isCall)<int(n2.isCall) ||
437                      (n1.isCall == n2.isCall && n1.block < n2.block); });
438        auto it = std::unique(block.nexts.begin(), block.nexts.end(),
439                  [](const NextBlock& n1, const NextBlock& n2)
440                  { return n1.block == n2.block && n1.isCall == n2.isCall; });
441        block.nexts.resize(it - block.nexts.begin());
442    }
443}
444
445/** Simple cache **/
446
447template<typename K, typename V>
448class CLRX_INTERNAL SimpleCache
449{
450private:
451    struct Entry
452    {
453        size_t sortedPos;
454        size_t usage;
455        V value;
456    };
457   
458    size_t totalWeight;
459    size_t maxWeight;
460   
461    typedef typename std::unordered_map<K, Entry>::iterator EntryMapIt;
462    // sorted entries - sorted by usage
463    std::vector<EntryMapIt> sortedEntries;
464    std::unordered_map<K, Entry> entryMap;
465   
466    void updateInSortedEntries(EntryMapIt it)
467    {
468        const size_t curPos = it->second.sortedPos;
469        if (curPos == 0)
470            return; // first position
471        if (sortedEntries[curPos-1]->second.usage < it->second.usage &&
472            (curPos==1 || sortedEntries[curPos-2]->second.usage >= it->second.usage))
473        {
474            //std::cout << "fast path" << std::endl;
475            std::swap(sortedEntries[curPos-1]->second.sortedPos, it->second.sortedPos);
476            std::swap(sortedEntries[curPos-1], sortedEntries[curPos]);
477            return;
478        }
479        //std::cout << "slow path" << std::endl;
480        auto fit = std::upper_bound(sortedEntries.begin(),
481            sortedEntries.begin()+it->second.sortedPos, it,
482            [](EntryMapIt it1, EntryMapIt it2)
483            { return it1->second.usage > it2->second.usage; });
484        if (fit != sortedEntries.begin()+it->second.sortedPos)
485        {
486            const size_t curPos = it->second.sortedPos;
487            std::swap((*fit)->second.sortedPos, it->second.sortedPos);
488            std::swap(*fit, sortedEntries[curPos]);
489        }
490    }
491   
492    void insertToSortedEntries(EntryMapIt it)
493    {
494        it->second.sortedPos = sortedEntries.size();
495        sortedEntries.push_back(it);
496    }
497   
498    void removeFromSortedEntries(size_t pos)
499    {
500        // update later element positioning
501        for (size_t i = pos+1; i < sortedEntries.size(); i++)
502            (sortedEntries[i]->second.sortedPos)--;
503        sortedEntries.erase(sortedEntries.begin() + pos);
504    }
505   
506public:
507    explicit SimpleCache(size_t _maxWeight) : totalWeight(0), maxWeight(_maxWeight)
508    { }
509   
510    // use key - get value
511    V* use(const K& key)
512    {
513        auto it = entryMap.find(key);
514        if (it != entryMap.end())
515        {
516            it->second.usage++;
517            updateInSortedEntries(it);
518            return &(it->second.value);
519        }
520        return nullptr;
521    }
522   
523    bool hasKey(const K& key)
524    { return entryMap.find(key) != entryMap.end(); }
525   
526    // put value
527    void put(const K& key, const V& value)
528    {
529        auto res = entryMap.insert({ key, Entry{ 0, 0, value } });
530        if (!res.second)
531        {
532            removeFromSortedEntries(res.first->second.sortedPos); // remove old value
533            // update value
534            totalWeight -= res.first->second.value.weight();
535            res.first->second = Entry{ 0, 0, value };
536        }
537        const size_t elemWeight = value.weight();
538       
539        // correct max weight if element have greater weight
540        if (elemWeight > maxWeight)
541            maxWeight = elemWeight<<1;
542       
543        while (totalWeight+elemWeight > maxWeight)
544        {
545            // remove min usage element
546            auto minUsageIt = sortedEntries.back();
547            sortedEntries.pop_back();
548            totalWeight -= minUsageIt->second.value.weight();
549            entryMap.erase(minUsageIt);
550        }
551       
552        insertToSortedEntries(res.first); // new entry in sorted entries
553       
554        totalWeight += elemWeight;
555    }
556};
557
558/** Simple cache **/
559
560// map of last SSAId for routine, key - varid, value - last SSA ids
561class CLRX_INTERNAL LastSSAIdMap: public
562            std::unordered_map<AsmSingleVReg, VectorSet<size_t> >
563{
564public:
565    LastSSAIdMap()
566    { }
567   
568    iterator insertSSAId(const AsmSingleVReg& vreg, size_t ssaId)
569    {
570        auto res = insert({ vreg, { ssaId } });
571        if (!res.second)
572            res.first->second.insertValue(ssaId);
573        return res.first;
574    }
575   
576    void eraseSSAId(const AsmSingleVReg& vreg, size_t ssaId)
577    {
578        auto it = find(vreg);
579        if (it != end())
580             it->second.eraseValue(ssaId);
581    }
582   
583    size_t weight() const
584    { return size(); }
585};
586
587typedef LastSSAIdMap RBWSSAIdMap;
588
589struct CLRX_INTERNAL RetSSAEntry
590{
591    std::vector<size_t> routines;
592    VectorSet<size_t> ssaIds;
593};
594
595typedef std::unordered_map<AsmSingleVReg, RetSSAEntry> RetSSAIdMap;
596
597struct CLRX_INTERNAL RoutineData
598{
599    // rbwSSAIdMap - read before write SSAId's map
600    std::unordered_map<AsmSingleVReg, size_t> rbwSSAIdMap;
601    LastSSAIdMap curSSAIdMap;
602    LastSSAIdMap lastSSAIdMap;
603    bool notFirstReturn;
604   
605    RoutineData() : notFirstReturn(false)
606    { }
607   
608    size_t weight() const
609    { return rbwSSAIdMap.size() + lastSSAIdMap.weight(); }
610};
611
612struct CLRX_INTERNAL FlowStackEntry
613{
614    size_t blockIndex;
615    size_t nextIndex;
616    bool isCall;
617    RetSSAIdMap prevRetSSAIdSets;
618};
619
620struct CLRX_INTERNAL FlowStackEntry2
621{
622    size_t blockIndex;
623    size_t nextIndex;
624};
625
626
627struct CLRX_INTERNAL CallStackEntry
628{
629    size_t callBlock; // index
630    size_t callNextIndex; // index of call next
631    size_t routineBlock;    // routine block
632};
633
634class ResSecondPointsToCache: public std::vector<bool>
635{
636public:
637    explicit ResSecondPointsToCache(size_t n) : std::vector<bool>(n<<1, false)
638    { }
639   
640    void increase(size_t i)
641    {
642        if ((*this)[i<<1])
643            (*this)[(i<<1)+1] = true;
644        else
645            (*this)[i<<1] = true;
646    }
647   
648    cxuint count(size_t i) const
649    { return cxuint((*this)[i<<1]) + (*this)[(i<<1)+1]; }
650};
651
652typedef AsmRegAllocator::SSAReplace SSAReplace; // first - orig ssaid, second - dest ssaid
653typedef AsmRegAllocator::SSAReplacesMap SSAReplacesMap;
654
655static inline void insertReplace(SSAReplacesMap& rmap, const AsmSingleVReg& vreg,
656              size_t origId, size_t destId)
657{
658    auto res = rmap.insert({ vreg, {} });
659    res.first->second.push_back({ origId, destId });
660}
661
662static void handleSSAEntryWhileResolving(SSAReplacesMap* replacesMap,
663            const LastSSAIdMap* stackVarMap,
664            std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
665            FlowStackEntry2& entry, const SSAEntry& sentry,
666            RBWSSAIdMap* cacheSecPoints)
667{
668    const SSAInfo& sinfo = sentry.second;
669    auto res = alreadyReadMap.insert({ sentry.first, entry.blockIndex });
670   
671    if (res.second && sinfo.readBeforeWrite)
672    {
673        if (cacheSecPoints != nullptr)
674        {
675            auto res = cacheSecPoints->insert({ sentry.first, { sinfo.ssaIdBefore } });
676            if (!res.second)
677                res.first->second.insertValue(sinfo.ssaIdBefore);
678        }
679       
680        if (stackVarMap != nullptr)
681        {
682           
683            // resolve conflict for this variable ssaId>.
684            // only if in previous block previous SSAID is
685            // read before all writes
686            auto it = stackVarMap->find(sentry.first);
687           
688            if (it != stackVarMap->end())
689            {
690                // found, resolve by set ssaIdLast
691                for (size_t ssaId: it->second)
692                {
693                    if (ssaId > sinfo.ssaIdBefore)
694                    {
695                        std::cout << "  insertreplace: " << sentry.first.regVar << ":" <<
696                            sentry.first.index  << ": " <<
697                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
698                        insertReplace(*replacesMap, sentry.first, ssaId,
699                                    sinfo.ssaIdBefore);
700                    }
701                    else if (ssaId < sinfo.ssaIdBefore)
702                    {
703                        std::cout << "  insertreplace2: " << sentry.first.regVar << ":" <<
704                            sentry.first.index  << ": " <<
705                            ssaId << ", " << sinfo.ssaIdBefore << std::endl;
706                        insertReplace(*replacesMap, sentry.first,
707                                        sinfo.ssaIdBefore, ssaId);
708                    }
709                    /*else
710                        std::cout << "  noinsertreplace: " <<
711                            ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
712                }
713            }
714        }
715    }
716}
717
718typedef std::unordered_map<size_t, std::pair<size_t, size_t> > PrevWaysIndexMap;
719
720static void useResSecPointCache(SSAReplacesMap* replacesMap,
721        const LastSSAIdMap* stackVarMap,
722        const std::unordered_map<AsmSingleVReg, size_t>& alreadyReadMap,
723        const RBWSSAIdMap* resSecondPoints, size_t nextBlock,
724        RBWSSAIdMap* destCacheSecPoints)
725{
726    std::cout << "use resSecPointCache for " << nextBlock <<
727            ", alreadyRMapSize: " << alreadyReadMap.size() << std::endl;
728    for (const auto& sentry: *resSecondPoints)
729    {
730        const bool alreadyRead = alreadyReadMap.find(sentry.first) != alreadyReadMap.end();
731        if (destCacheSecPoints != nullptr && !alreadyRead)
732        {
733            auto res = destCacheSecPoints->insert(sentry);
734            if (!res.second)
735                for (size_t srcSSAId: sentry.second)
736                    res.first->second.insertValue(srcSSAId);
737        }
738       
739        if (stackVarMap != nullptr)
740        {
741            auto it = stackVarMap->find(sentry.first);
742           
743            if (it != stackVarMap->end() && !alreadyRead)
744            {
745                // found, resolve by set ssaIdLast
746                for (size_t ssaId: it->second)
747                {
748                    for (size_t secSSAId: sentry.second)
749                    {
750                        if (ssaId > secSSAId)
751                        {
752                            std::cout << "  insertreplace: " <<
753                                sentry.first.regVar << ":" <<
754                                sentry.first.index  << ": " <<
755                                ssaId << ", " << secSSAId << std::endl;
756                            insertReplace(*replacesMap, sentry.first, ssaId, secSSAId);
757                        }
758                        else if (ssaId < secSSAId)
759                        {
760                            std::cout << "  insertreplace2: " <<
761                                sentry.first.regVar << ":" <<
762                                sentry.first.index  << ": " <<
763                                ssaId << ", " << secSSAId << std::endl;
764                            insertReplace(*replacesMap, sentry.first, secSSAId, ssaId);
765                        }
766                        /*else
767                            std::cout << "  noinsertreplace: " <<
768                                ssaId << "," << sinfo.ssaIdBefore << std::endl;*/
769                    }
770                }
771            }
772        }
773    }
774}
775
776static void addResSecCacheEntry(const std::unordered_map<size_t, RoutineData>& routineMap,
777                const std::vector<CodeBlock>& codeBlocks,
778                SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
779                size_t nextBlock)
780{
781    std::cout << "addResSecCacheEntry: " << nextBlock << std::endl;
782    //std::stack<CallStackEntry> callStack = prevCallStack;
783    // traverse by graph from next block
784    std::deque<FlowStackEntry2> flowStack;
785    flowStack.push_back({ nextBlock, 0 });
786    std::vector<bool> visited(codeBlocks.size(), false);
787   
788    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
789   
790    RBWSSAIdMap cacheSecPoints;
791   
792    while (!flowStack.empty())
793    {
794        FlowStackEntry2& entry = flowStack.back();
795        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
796       
797        if (entry.nextIndex == 0)
798        {
799            // process current block
800            if (!visited[entry.blockIndex])
801            {
802                visited[entry.blockIndex] = true;
803                std::cout << "  resolv: " << entry.blockIndex << std::endl;
804               
805                const RBWSSAIdMap* resSecondPoints =
806                            resSecondPointsCache.use(entry.blockIndex);
807                if (resSecondPoints == nullptr)
808                    for (auto& sentry: cblock.ssaInfoMap)
809                        handleSSAEntryWhileResolving(nullptr, nullptr,
810                                alreadyReadMap, entry, sentry,
811                                &cacheSecPoints);
812                else // to use cache
813                {
814                    useResSecPointCache(nullptr, nullptr, alreadyReadMap,
815                            resSecondPoints, entry.blockIndex, &cacheSecPoints);
816                    flowStack.pop_back();
817                    continue;
818                }
819            }
820            else
821            {
822                // back, already visited
823                std::cout << "resolv already: " << entry.blockIndex << std::endl;
824                flowStack.pop_back();
825                continue;
826            }
827        }
828       
829        /*if (!callStack.empty() &&
830            entry.blockIndex == callStack.top().callBlock &&
831            entry.nextIndex-1 == callStack.top().callNextIndex)
832            callStack.pop(); // just return from call
833        */
834        if (entry.nextIndex < cblock.nexts.size())
835        {
836            /*if (cblock.nexts[entry.nextIndex].isCall)
837                callStack.push({ entry.blockIndex, entry.nextIndex,
838                            cblock.nexts[entry.nextIndex].block });*/
839            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
840            entry.nextIndex++;
841        }
842        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
843                // if have any call then go to next block
844                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
845                 !cblock.haveReturn && !cblock.haveEnd)
846        {
847            // add toResolveMap ssaIds inside called routines
848            for (const auto& next: cblock.nexts)
849                if (next.isCall)
850                {
851                    const RoutineData& rdata = routineMap.find(next.block)->second;
852                    for (const auto& v: rdata.rbwSSAIdMap)
853                        alreadyReadMap.insert({v.first, entry.blockIndex });
854                    for (const auto& v: rdata.lastSSAIdMap)
855                        alreadyReadMap.insert({v.first, entry.blockIndex });
856                }
857           
858            flowStack.push_back({ entry.blockIndex+1, 0 });
859            entry.nextIndex++;
860        }
861        else // back
862        {
863            // remove old to resolve in leaved way to allow collecting next ssaId
864            // before write (can be different due to earlier visit)
865            for (const auto& next: cblock.nexts)
866                if (next.isCall)
867                {
868                    const RoutineData& rdata = routineMap.find(next.block)->second;
869                    for (const auto& v: rdata.rbwSSAIdMap)
870                    {
871                        auto it = alreadyReadMap.find(v.first);
872                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
873                            alreadyReadMap.erase(it);
874                    }
875                    for (const auto& v: rdata.lastSSAIdMap)
876                    {
877                        auto it = alreadyReadMap.find(v.first);
878                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
879                            alreadyReadMap.erase(it);
880                    }
881                }
882           
883            for (const auto& sentry: cblock.ssaInfoMap)
884            {
885                auto it = alreadyReadMap.find(sentry.first);
886                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
887                    // remove old to resolve in leaved way to allow collecting next ssaId
888                    // before write (can be different due to earlier visit)
889                    alreadyReadMap.erase(it);
890            }
891            std::cout << "  popresolv" << std::endl;
892            flowStack.pop_back();
893        }
894    }
895   
896    resSecondPointsCache.put(nextBlock, cacheSecPoints);
897}
898
899
900static void resolveSSAConflicts(const std::deque<FlowStackEntry2>& prevFlowStack,
901        const std::unordered_map<size_t, RoutineData>& routineMap,
902        const std::vector<CodeBlock>& codeBlocks,
903        const PrevWaysIndexMap& prevWaysIndexMap,
904        const std::vector<bool>& waysToCache, ResSecondPointsToCache& cblocksToCache,
905        SimpleCache<size_t, LastSSAIdMap>& resFirstPointsCache,
906        SimpleCache<size_t, RBWSSAIdMap>& resSecondPointsCache,
907        SSAReplacesMap& replacesMap)
908{
909    size_t nextBlock = prevFlowStack.back().blockIndex;
910    auto pfEnd = prevFlowStack.end();
911    --pfEnd;
912    std::cout << "startResolv: " << (pfEnd-1)->blockIndex << "," << nextBlock << std::endl;
913    LastSSAIdMap stackVarMap;
914   
915    size_t pfStartIndex = 0;
916    {
917        auto pfPrev = pfEnd;
918        --pfPrev;
919        auto it = prevWaysIndexMap.find(pfPrev->blockIndex);
920        if (it != prevWaysIndexMap.end())
921        {
922            const LastSSAIdMap* cached = resFirstPointsCache.use(it->second.first);
923            if (cached!=nullptr)
924            {
925                std::cout << "use pfcached: " << it->second.first << ", " <<
926                        it->second.second << std::endl;
927                stackVarMap = *cached;
928                pfStartIndex = it->second.second+1;
929            }
930        }
931    }
932   
933    for (auto pfit = prevFlowStack.begin()+pfStartIndex; pfit != pfEnd; ++pfit)
934    {
935        const FlowStackEntry2& entry = *pfit;
936        std::cout << "  apply: " << entry.blockIndex << std::endl;
937        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
938        for (const auto& sentry: cblock.ssaInfoMap)
939        {
940            const SSAInfo& sinfo = sentry.second;
941            if (sinfo.ssaIdChange != 0)
942                stackVarMap[sentry.first] = { sinfo.ssaId + sinfo.ssaIdChange - 1 };
943        }
944        if (entry.nextIndex > cblock.nexts.size())
945            for (const NextBlock& next: cblock.nexts)
946                if (next.isCall)
947                {
948                    std::cout << "  applycall: " << entry.blockIndex << ": " <<
949                            entry.nextIndex << ": " << next.block << std::endl;
950                    const LastSSAIdMap& regVarMap =
951                            routineMap.find(next.block)->second.lastSSAIdMap;
952                    for (const auto& sentry: regVarMap)
953                        stackVarMap[sentry.first] = sentry.second;
954                }
955       
956        // put to first point cache
957        if (waysToCache[pfit->blockIndex] && !resFirstPointsCache.hasKey(pfit->blockIndex))
958        {
959            std::cout << "put pfcache " << pfit->blockIndex << std::endl;
960            resFirstPointsCache.put(pfit->blockIndex, stackVarMap);
961        }
962    }
963   
964    RBWSSAIdMap cacheSecPoints;
965    const bool toCache = (!resSecondPointsCache.hasKey(nextBlock)) &&
966                cblocksToCache.count(nextBlock)>=2;
967   
968    //std::stack<CallStackEntry> callStack = prevCallStack;
969    // traverse by graph from next block
970    std::deque<FlowStackEntry2> flowStack;
971    flowStack.push_back({ nextBlock, 0 });
972    std::vector<bool> visited(codeBlocks.size(), false);
973   
974    // already read in current path
975    // key - vreg, value - source block where vreg of conflict found
976    std::unordered_map<AsmSingleVReg, size_t> alreadyReadMap;
977   
978    while (!flowStack.empty())
979    {
980        FlowStackEntry2& entry = flowStack.back();
981        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
982       
983        if (entry.nextIndex == 0)
984        {
985            // process current block
986            if (!visited[entry.blockIndex])
987            {
988                visited[entry.blockIndex] = true;
989                std::cout << "  resolv: " << entry.blockIndex << std::endl;
990               
991                const RBWSSAIdMap* resSecondPoints =
992                        resSecondPointsCache.use(entry.blockIndex);
993                if (resSecondPoints == nullptr)
994                    for (auto& sentry: cblock.ssaInfoMap)
995                        handleSSAEntryWhileResolving(&replacesMap, &stackVarMap,
996                                alreadyReadMap, entry, sentry,
997                                toCache ? &cacheSecPoints : nullptr);
998                else // to use cache
999                {
1000                    useResSecPointCache(&replacesMap, &stackVarMap, alreadyReadMap,
1001                            resSecondPoints, entry.blockIndex,
1002                            toCache ? &cacheSecPoints : nullptr);
1003                    flowStack.pop_back();
1004                    continue;
1005                }
1006            }
1007            else
1008            {
1009                cblocksToCache.increase(entry.blockIndex);
1010                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1011                            cblocksToCache.count(entry.blockIndex) << std::endl;
1012                // back, already visited
1013                std::cout << "resolv already: " << entry.blockIndex << std::endl;
1014                flowStack.pop_back();
1015                continue;
1016            }
1017        }
1018       
1019        /*if (!callStack.empty() &&
1020            entry.blockIndex == callStack.top().callBlock &&
1021            entry.nextIndex-1 == callStack.top().callNextIndex)
1022            callStack.pop(); // just return from call
1023        */
1024        if (entry.nextIndex < cblock.nexts.size())
1025        {
1026            /*if (cblock.nexts[entry.nextIndex].isCall)
1027                callStack.push({ entry.blockIndex, entry.nextIndex,
1028                            cblock.nexts[entry.nextIndex].block });*/
1029            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1030            entry.nextIndex++;
1031        }
1032        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1033                // if have any call then go to next block
1034                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1035                 !cblock.haveReturn && !cblock.haveEnd)
1036        {
1037            // add toResolveMap ssaIds inside called routines
1038            for (const auto& next: cblock.nexts)
1039                if (next.isCall)
1040                {
1041                    const RoutineData& rdata = routineMap.find(next.block)->second;
1042                    for (const auto& v: rdata.rbwSSAIdMap)
1043                        alreadyReadMap.insert({v.first, entry.blockIndex });
1044                    for (const auto& v: rdata.lastSSAIdMap)
1045                        alreadyReadMap.insert({v.first, entry.blockIndex });
1046                }
1047           
1048            flowStack.push_back({ entry.blockIndex+1, 0 });
1049            entry.nextIndex++;
1050        }
1051        else // back
1052        {
1053            // remove old to resolve in leaved way to allow collecting next ssaId
1054            // before write (can be different due to earlier visit)
1055            for (const auto& next: cblock.nexts)
1056                if (next.isCall)
1057                {
1058                    const RoutineData& rdata = routineMap.find(next.block)->second;
1059                    for (const auto& v: rdata.rbwSSAIdMap)
1060                    {
1061                        auto it = alreadyReadMap.find(v.first);
1062                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1063                            alreadyReadMap.erase(it);
1064                    }
1065                    for (const auto& v: rdata.lastSSAIdMap)
1066                    {
1067                        auto it = alreadyReadMap.find(v.first);
1068                        if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1069                            alreadyReadMap.erase(it);
1070                    }
1071                }
1072           
1073            for (const auto& sentry: cblock.ssaInfoMap)
1074            {
1075                auto it = alreadyReadMap.find(sentry.first);
1076                if (it != alreadyReadMap.end() && it->second == entry.blockIndex)
1077                    // remove old to resolve in leaved way to allow collecting next ssaId
1078                    // before write (can be different due to earlier visit)
1079                    alreadyReadMap.erase(it);
1080            }
1081            std::cout << "  popresolv" << std::endl;
1082           
1083            if (cblocksToCache.count(entry.blockIndex)==2 &&
1084                !resSecondPointsCache.hasKey(entry.blockIndex))
1085                // add to cache
1086                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1087                            entry.blockIndex);
1088           
1089            flowStack.pop_back();
1090        }
1091    }
1092   
1093    if (toCache)
1094        resSecondPointsCache.put(nextBlock, cacheSecPoints);
1095}
1096
1097static void joinRetSSAIdMap(RetSSAIdMap& dest, const LastSSAIdMap& src,
1098                size_t routineBlock)
1099{
1100    for (const auto& entry: src)
1101    {
1102        std::cout << "  entry2: " << entry.first.regVar << ":" <<
1103                cxuint(entry.first.index) << ":";
1104        for (size_t v: entry.second)
1105            std::cout << " " << v;
1106        std::cout << std::endl;
1107        // insert if not inserted
1108        auto res = dest.insert({entry.first, { { routineBlock }, entry.second } });
1109        if (res.second)
1110            continue; // added new
1111        VectorSet<size_t>& destEntry = res.first->second.ssaIds;
1112        res.first->second.routines.push_back(routineBlock);
1113        // add new ways
1114        for (size_t ssaId: entry.second)
1115            destEntry.insertValue(ssaId);
1116        std::cout << "    :";
1117        for (size_t v: destEntry)
1118            std::cout << " " << v;
1119        std::cout << std::endl;
1120    }
1121}
1122
1123static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src)
1124{
1125    for (const auto& entry: src)
1126    {
1127        std::cout << "  entry: " << entry.first.regVar << ":" <<
1128                cxuint(entry.first.index) << ":";
1129        for (size_t v: entry.second)
1130            std::cout << " " << v;
1131        std::cout << std::endl;
1132        auto res = dest.insert(entry); // find
1133        if (res.second)
1134            continue; // added new
1135        VectorSet<size_t>& destEntry = res.first->second;
1136        // add new ways
1137        for (size_t ssaId: entry.second)
1138            destEntry.insertValue(ssaId);
1139        std::cout << "    :";
1140        for (size_t v: destEntry)
1141            std::cout << " " << v;
1142        std::cout << std::endl;
1143    }
1144}
1145
1146static void joinLastSSAIdMap(LastSSAIdMap& dest, const LastSSAIdMap& src,
1147                    const RoutineData& laterRdata, bool loop = false)
1148{
1149    for (const auto& entry: src)
1150    {
1151        auto lsit = laterRdata.lastSSAIdMap.find(entry.first);
1152        if (lsit != laterRdata.lastSSAIdMap.end())
1153        {
1154            auto csit = laterRdata.curSSAIdMap.find(entry.first);
1155            if (csit != laterRdata.curSSAIdMap.end() && !csit->second.empty())
1156            {
1157                // if found in last ssa ID map,
1158                // but has first value (some way do not change SSAId)
1159                // then pass to add new ssaIds before this point
1160                if (!lsit->second.hasValue(csit->second[0]))
1161                    continue; // otherwise, skip
1162            }
1163            else
1164                continue;
1165        }
1166        std::cout << "  entry: " << entry.first.regVar << ":" <<
1167                cxuint(entry.first.index) << ":";
1168        for (size_t v: entry.second)
1169            std::cout << " " << v;
1170        std::cout << std::endl;
1171        auto res = dest.insert(entry); // find
1172        if (res.second)
1173            continue; // added new
1174        VectorSet<size_t>& destEntry = res.first->second;
1175        // add new ways
1176        for (size_t ssaId: entry.second)
1177            destEntry.insertValue(ssaId);
1178        std::cout << "    :";
1179        for (size_t v: destEntry)
1180            std::cout << " " << v;
1181        std::cout << std::endl;
1182    }
1183    if (!loop) // do not if loop
1184        joinLastSSAIdMap(dest, laterRdata.lastSSAIdMap);
1185}
1186
1187
1188static void joinRoutineData(RoutineData& dest, const RoutineData& src)
1189{
1190    // insert readBeforeWrite only if doesnt exists in destination
1191    dest.rbwSSAIdMap.insert(src.rbwSSAIdMap.begin(), src.rbwSSAIdMap.end());
1192   
1193    //joinLastSSAIdMap(dest.curSSAIdMap, src.lastSSAIdMap);
1194   
1195    for (const auto& entry: src.lastSSAIdMap)
1196    {
1197        std::cout << "  entry3: " << entry.first.regVar << ":" <<
1198                cxuint(entry.first.index) << ":";
1199        for (size_t v: entry.second)
1200            std::cout << " " << v;
1201        std::cout << std::endl;
1202        auto res = dest.curSSAIdMap.insert(entry); // find
1203        VectorSet<size_t>& destEntry = res.first->second;
1204        if (!res.second)
1205        {
1206            // add new ways
1207            for (size_t ssaId: entry.second)
1208                destEntry.insertValue(ssaId);
1209        }
1210        auto rbwit = src.rbwSSAIdMap.find(entry.first);
1211        if (rbwit != src.rbwSSAIdMap.end() &&
1212            // remove only if not in src lastSSAIdMap
1213            std::find(entry.second.begin(), entry.second.end(),
1214                      rbwit->second) == entry.second.end())
1215            destEntry.eraseValue(rbwit->second);
1216        std::cout << "    :";
1217        for (size_t v: destEntry)
1218            std::cout << " " << v;
1219        std::cout << std::endl;
1220    }
1221}
1222
1223static void reduceSSAIds(std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1224            RetSSAIdMap& retSSAIdMap, std::unordered_map<size_t, RoutineData>& routineMap,
1225            SSAReplacesMap& ssaReplacesMap, FlowStackEntry& entry, SSAEntry& ssaEntry)
1226{
1227    SSAInfo& sinfo = ssaEntry.second;
1228    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1229    auto ssaIdsIt = retSSAIdMap.find(ssaEntry.first);
1230    if (ssaIdsIt != retSSAIdMap.end() && sinfo.readBeforeWrite)
1231    {
1232        auto& ssaIds = ssaIdsIt->second.ssaIds;
1233       
1234        if (ssaIds.size() >= 2)
1235        {
1236            // reduce to minimal ssaId from all calls
1237            std::sort(ssaIds.begin(), ssaIds.end());
1238            ssaIds.resize(std::unique(ssaIds.begin(), ssaIds.end()) - ssaIds.begin());
1239            // insert SSA replaces
1240            size_t minSSAId = ssaIds.front();
1241            for (auto sit = ssaIds.begin()+1; sit != ssaIds.end(); ++sit)
1242                insertReplace(ssaReplacesMap, ssaEntry.first, *sit, minSSAId);
1243            ssaId = minSSAId+1; // plus one
1244        }
1245        else if (ssaIds.size() == 1)
1246            ssaId = ssaIds.front()+1; // plus one
1247       
1248        std::cout << "retssa ssaid: " << ssaEntry.first.regVar << ":" <<
1249                ssaEntry.first.index << ": " << ssaId << std::endl;
1250        // replace smallest ssaId in routineMap lastSSAId entry
1251        // reduce SSAIds replaces
1252        for (size_t rblock: ssaIdsIt->second.routines)
1253            routineMap.find(rblock)->second.lastSSAIdMap[ssaEntry.first] =
1254                            VectorSet<size_t>({ ssaId-1 });
1255        // finally remove from container (because obsolete)
1256        retSSAIdMap.erase(ssaIdsIt);
1257    }
1258    else if (ssaIdsIt != retSSAIdMap.end() && sinfo.ssaIdChange!=0)
1259    {
1260        // put before removing to revert for other ways after calls
1261        auto res = entry.prevRetSSAIdSets.insert(*ssaIdsIt);
1262        if (res.second)
1263            res.first->second = ssaIdsIt->second;
1264        // just remove, if some change without read before
1265        retSSAIdMap.erase(ssaIdsIt);
1266    }
1267}
1268
1269static void updateRoutineData(RoutineData& rdata, const SSAEntry& ssaEntry,
1270                size_t prevSSAId)
1271{
1272    const SSAInfo& sinfo = ssaEntry.second;
1273    bool beforeFirstAccess = true;
1274    // put first SSAId before write
1275    if (sinfo.readBeforeWrite)
1276    {
1277        //std::cout << "PutCRBW: " << sinfo.ssaIdBefore << std::endl;
1278        if (!rdata.rbwSSAIdMap.insert({ ssaEntry.first, prevSSAId }).second)
1279            // if already added
1280            beforeFirstAccess = false;
1281    }
1282   
1283    if (sinfo.ssaIdChange != 0)
1284    {
1285        //std::cout << "PutC: " << sinfo.ssaIdLast << std::endl;
1286        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { sinfo.ssaIdLast } });
1287        // put last SSAId
1288        if (!res.second)
1289        {
1290            beforeFirstAccess = false;
1291            // if not inserted
1292            VectorSet<size_t>& ssaIds = res.first->second;
1293            if (sinfo.readBeforeWrite)
1294                ssaIds.eraseValue(prevSSAId);
1295            ssaIds.insertValue(sinfo.ssaIdLast);
1296        }
1297        // add readbefore if in previous returns if not added yet
1298        if (rdata.notFirstReturn && beforeFirstAccess)
1299            rdata.lastSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1300    }
1301    else
1302    {
1303        // insert read ssaid if no change
1304        auto res = rdata.curSSAIdMap.insert({ ssaEntry.first, { prevSSAId } });
1305        if (!res.second)
1306        {
1307            VectorSet<size_t>& ssaIds = res.first->second;
1308            ssaIds.insertValue(prevSSAId);
1309        }
1310    }
1311}
1312
1313static void initializePrevRetSSAIds(const RetSSAIdMap& retSSAIdMap,
1314            const RoutineData& rdata, FlowStackEntry& entry)
1315{
1316    for (const auto& v: rdata.lastSSAIdMap)
1317    {
1318        auto res = entry.prevRetSSAIdSets.insert({v.first, {}});
1319        if (!res.second)
1320            continue; // already added, do not change
1321        auto rfit = retSSAIdMap.find(v.first);
1322        if (rfit != retSSAIdMap.end())
1323            res.first->second = rfit->second;
1324    }
1325}
1326
1327static void revertRetSSAIdMap(const std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1328            RetSSAIdMap& retSSAIdMap, FlowStackEntry& entry, RoutineData* rdata)
1329{
1330    // revert retSSAIdMap
1331    for (auto v: entry.prevRetSSAIdSets)
1332    {
1333        auto rfit = retSSAIdMap.find(v.first);
1334        if (rdata!=nullptr && rfit != retSSAIdMap.end())
1335        {
1336            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1337            for (size_t ssaId: rfit->second.ssaIds)
1338                ssaIds.eraseValue(ssaId);
1339        }
1340       
1341        if (!v.second.ssaIds.empty())
1342        {
1343            // just add if previously present
1344            if (rfit != retSSAIdMap.end())
1345                rfit->second = v.second;
1346            else
1347                retSSAIdMap.insert(v);
1348        }
1349        else // erase if empty
1350            retSSAIdMap.erase(v.first);
1351       
1352        if (rdata!=nullptr)
1353        {
1354            VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[v.first];
1355            for (size_t ssaId: v.second.ssaIds)
1356                ssaIds.insertValue(ssaId);
1357            if (v.second.ssaIds.empty())
1358            {
1359                auto cit = curSSAIdMap.find(v.first);
1360                ssaIds.push_back((cit!=curSSAIdMap.end() ? cit->second : 0)-1);
1361            }
1362           
1363            std::cout << " popentry2 " << entry.blockIndex << ": " <<
1364                    v.first.regVar << ":" << v.first.index << ":";
1365            for (size_t v: ssaIds)
1366                std::cout << " " << v;
1367            std::cout << std::endl;
1368        }
1369    }
1370}
1371
1372static void updateRoutineCurSSAIdMap(RoutineData* rdata, const SSAEntry& ssaEntry,
1373            const FlowStackEntry& entry, size_t curSSAId, size_t nextSSAId)
1374{
1375    VectorSet<size_t>& ssaIds = rdata->curSSAIdMap[ssaEntry.first];
1376    std::cout << " pushentry " << entry.blockIndex << ": " <<
1377                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1378    for (size_t v: ssaIds)
1379        std::cout << " " << v;
1380    std::cout << std::endl;
1381   
1382    // if cblock with some children
1383    if (nextSSAId != curSSAId)
1384        ssaIds.eraseValue(nextSSAId-1);
1385   
1386    // push previous SSAId to lastSSAIdMap (later will be replaced)
1387    /*std::cout << "call back: " << nextSSAId << "," <<
1388            (curSSAId) << std::endl;*/
1389    ssaIds.insertValue(curSSAId-1);
1390   
1391    std::cout << " popentry " << entry.blockIndex << ": " <<
1392                ssaEntry.first.regVar << ":" << ssaEntry.first.index << ":";
1393    for (size_t v: ssaIds)
1394        std::cout << " " << v;
1395    std::cout << std::endl;
1396}
1397
1398struct CLRX_INTERNAL LoopSSAIdMap
1399{
1400    LastSSAIdMap ssaIdMap;
1401    bool passed;
1402};
1403
1404static void createRoutineData(const std::vector<CodeBlock>& codeBlocks,
1405        std::unordered_map<AsmSingleVReg, size_t>& curSSAIdMap,
1406        const std::unordered_set<size_t>& loopBlocks,
1407        const ResSecondPointsToCache& subroutToCache,
1408        SimpleCache<size_t, RoutineData>& subroutinesCache,
1409        const std::unordered_map<size_t, RoutineData>& routineMap, RoutineData& rdata,
1410        size_t routineBlock, bool noMainLoop = false)
1411{
1412    std::cout << "--------- createRoutineData ----------------\n";
1413    std::vector<bool> visited(codeBlocks.size(), false);
1414    std::deque<FlowStackEntry> flowStack;
1415    // last SSA ids map from returns
1416    RetSSAIdMap retSSAIdMap;
1417    flowStack.push_back({ routineBlock, 0 });
1418   
1419    std::unordered_map<size_t, LoopSSAIdMap> loopSSAIdMap;
1420   
1421    while (!flowStack.empty())
1422    {
1423        FlowStackEntry& entry = flowStack.back();
1424        const CodeBlock& cblock = codeBlocks[entry.blockIndex];
1425       
1426        if (entry.nextIndex == 0)
1427        {
1428            // process current block
1429            //if (/*cachedRdata != nullptr &&*/
1430                //visited[entry.blockIndex] && flowStack.size() > 1)
1431            const RoutineData* cachedRdata = nullptr;
1432           
1433            bool isLoop = loopBlocks.find(entry.blockIndex) != loopBlocks.end();
1434            if (routineBlock != entry.blockIndex)
1435            {
1436                cachedRdata = subroutinesCache.use(entry.blockIndex);
1437                if (cachedRdata == nullptr)
1438                {
1439                    // try in routine map
1440                    auto rit = routineMap.find(entry.blockIndex);
1441                    if (rit != routineMap.end())
1442                        cachedRdata = &rit->second;
1443                }
1444                if (!isLoop && cachedRdata == nullptr &&
1445                    subroutToCache.count(entry.blockIndex)!=0)
1446                {
1447                    RoutineData subrData;
1448                    std::cout << "-- subrcache2 for " << entry.blockIndex << std::endl;
1449                    createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1450                        subroutinesCache, routineMap, subrData, entry.blockIndex, true);
1451                    if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1452                    {   // leave from loop point
1453                        auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1454                        if (loopsit != loopSSAIdMap.end())
1455                            joinLastSSAIdMap(subrData.lastSSAIdMap,
1456                                    loopsit->second.ssaIdMap, subrData, true);
1457                    }
1458                    subroutinesCache.put(entry.blockIndex, subrData);
1459                   
1460                    cachedRdata = subroutinesCache.use(entry.blockIndex);
1461                }
1462            }
1463           
1464            if (cachedRdata != nullptr)
1465            {
1466                std::cout << "use cached subr " << entry.blockIndex << std::endl;
1467                std::cout << "procret2: " << entry.blockIndex << std::endl;
1468                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap, *cachedRdata);
1469                std::cout << "procretend2" << std::endl;
1470                flowStack.pop_back();
1471                continue;
1472            }
1473            else if (!visited[entry.blockIndex])
1474            {
1475                std::cout << "proc: " << entry.blockIndex << std::endl;
1476                visited[entry.blockIndex] = true;
1477               
1478                for (const auto& ssaEntry: cblock.ssaInfoMap)
1479                    if (ssaEntry.first.regVar != nullptr)
1480                    {
1481                        // put data to routine data
1482                        updateRoutineData(rdata, ssaEntry, curSSAIdMap[ssaEntry.first]-1);
1483                       
1484                        if (ssaEntry.second.ssaIdChange!=0)
1485                            curSSAIdMap[ssaEntry.first] = ssaEntry.second.ssaIdLast+1;
1486                    }
1487            }
1488            else if (isLoop && (!noMainLoop || routineBlock != entry.blockIndex))
1489            {
1490                // handle loops
1491                std::cout << "  join loop ssaids: " << entry.blockIndex << std::endl;
1492                auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1493                if (loopsit != loopSSAIdMap.end())
1494                {
1495                    if (!loopsit->second.passed)
1496                        // still in loop join ssaid map
1497                        joinLastSSAIdMap(loopsit->second.ssaIdMap, rdata.curSSAIdMap);
1498                }
1499                else // insert new
1500                    loopSSAIdMap.insert({ entry.blockIndex,
1501                                { rdata.curSSAIdMap, false } });
1502                flowStack.pop_back();
1503                continue;
1504            }
1505            else
1506            {
1507                flowStack.pop_back();
1508                continue;
1509            }
1510        }
1511       
1512        // join and skip calls
1513        for (; entry.nextIndex < cblock.nexts.size() &&
1514                    cblock.nexts[entry.nextIndex].isCall; entry.nextIndex++)
1515            joinRoutineData(rdata, routineMap.find(
1516                            cblock.nexts[entry.nextIndex].block)->second);
1517       
1518        if (entry.nextIndex < cblock.nexts.size())
1519        {
1520            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1521            entry.nextIndex++;
1522        }
1523        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1524                // if have any call then go to next block
1525                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1526                 !cblock.haveReturn && !cblock.haveEnd)
1527        {
1528            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1529            {
1530                for (const NextBlock& next: cblock.nexts)
1531                    if (next.isCall)
1532                    {
1533                        //std::cout << "joincall:"<< next.block << std::endl;
1534                        auto it = routineMap.find(next.block); // must find
1535                        initializePrevRetSSAIds(retSSAIdMap, it->second, entry);
1536                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1537                    }
1538            }
1539            flowStack.push_back({ entry.blockIndex+1, 0 });
1540            entry.nextIndex++;
1541        }
1542        else
1543        {
1544            if (cblock.haveReturn)
1545            {
1546                std::cout << "procret: " << entry.blockIndex << std::endl;
1547                joinLastSSAIdMap(rdata.lastSSAIdMap, rdata.curSSAIdMap);
1548                std::cout << "procretend" << std::endl;
1549                rdata.notFirstReturn = true;
1550            }
1551           
1552            // revert retSSAIdMap
1553            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, &rdata);
1554            //
1555           
1556            for (const auto& ssaEntry: cblock.ssaInfoMap)
1557            {
1558                if (ssaEntry.first.regVar == nullptr)
1559                    continue;
1560                size_t curSSAId = ssaEntry.second.ssaIdBefore+1;
1561                size_t nextSSAId = (ssaEntry.second.ssaIdLast != SIZE_MAX) ?
1562                    ssaEntry.second.ssaIdLast+1 : curSSAId;
1563                curSSAIdMap[ssaEntry.first] = curSSAId;
1564               
1565                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1566                            ":" << ssaEntry.first.index << ": " <<
1567                            nextSSAId << ", " << curSSAId << std::endl;
1568               
1569                updateRoutineCurSSAIdMap(&rdata, ssaEntry, entry, curSSAId, nextSSAId);
1570            }
1571           
1572            auto loopsit = loopSSAIdMap.find(entry.blockIndex);
1573            if (flowStack.size() > 1 && subroutToCache.count(entry.blockIndex)!=0)
1574            { //put to cache
1575                RoutineData subrData;
1576                std::cout << "-- subrcache for " << entry.blockIndex << std::endl;
1577                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks, subroutToCache,
1578                        subroutinesCache, routineMap, subrData, entry.blockIndex, true);
1579                if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1580                {   // leave from loop point
1581                    if (loopsit != loopSSAIdMap.end())
1582                        joinLastSSAIdMap(subrData.lastSSAIdMap, loopsit->second.ssaIdMap,
1583                                         subrData, true);
1584                }
1585                subroutinesCache.put(entry.blockIndex, subrData);
1586            }
1587            if (loopBlocks.find(entry.blockIndex) != loopBlocks.end())
1588                // mark that loop has passed fully
1589                loopsit->second.passed = true;
1590           
1591            flowStack.pop_back();
1592        }
1593    }
1594    std::cout << "--------- createRoutineData end ------------\n";
1595}
1596
1597
1598void AsmRegAllocator::createSSAData(ISAUsageHandler& usageHandler)
1599{
1600    if (codeBlocks.empty())
1601        return;
1602    usageHandler.rewind();
1603    auto cbit = codeBlocks.begin();
1604    AsmRegVarUsage rvu;
1605    if (!usageHandler.hasNext())
1606        return; // do nothing if no regusages
1607    rvu = usageHandler.nextUsage();
1608   
1609    cxuint regRanges[MAX_REGTYPES_NUM*2];
1610    cxuint realRegsCount[MAX_REGTYPES_NUM];
1611    std::fill(realRegsCount, realRegsCount+MAX_REGTYPES_NUM, 0);
1612    size_t regTypesNum;
1613    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
1614   
1615    while (true)
1616    {
1617        while (cbit != codeBlocks.end() && cbit->end <= rvu.offset)
1618        {
1619            cbit->usagePos = usageHandler.getReadPos();
1620            ++cbit;
1621        }
1622        if (cbit == codeBlocks.end())
1623            break;
1624        // skip rvu's before codeblock
1625        while (rvu.offset < cbit->start && usageHandler.hasNext())
1626            rvu = usageHandler.nextUsage();
1627        if (rvu.offset < cbit->start)
1628            break;
1629       
1630        cbit->usagePos = usageHandler.getReadPos();
1631        while (rvu.offset < cbit->end)
1632        {
1633            // process rvu
1634            // only if regVar
1635            for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
1636            {
1637                auto res = cbit->ssaInfoMap.insert(
1638                        { AsmSingleVReg{ rvu.regVar, rindex }, SSAInfo() });
1639               
1640                SSAInfo& sinfo = res.first->second;
1641                if (res.second)
1642                    sinfo.firstPos = rvu.offset;
1643                if ((rvu.rwFlags & ASMRVU_READ) != 0 && (sinfo.ssaIdChange == 0 ||
1644                    // if first write RVU instead read RVU
1645                    (sinfo.ssaIdChange == 1 && sinfo.firstPos==rvu.offset)))
1646                    sinfo.readBeforeWrite = true;
1647                /* change SSA id only for write-only regvars -
1648                 *   read-write place can not have two different variables */
1649                if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField!=ASMFIELD_NONE)
1650                    sinfo.ssaIdChange++;
1651                if (rvu.regVar==nullptr)
1652                    sinfo.ssaIdBefore = sinfo.ssaIdFirst =
1653                            sinfo.ssaId = sinfo.ssaIdLast = 0;
1654            }
1655            // get next rvusage
1656            if (!usageHandler.hasNext())
1657                break;
1658            rvu = usageHandler.nextUsage();
1659        }
1660        ++cbit;
1661    }
1662   
1663    size_t rbwCount = 0;
1664    size_t wrCount = 0;
1665   
1666    SimpleCache<size_t, RoutineData> subroutinesCache(codeBlocks.size()<<3);
1667   
1668    std::deque<CallStackEntry> callStack;
1669    std::deque<FlowStackEntry> flowStack;
1670    // total SSA count
1671    std::unordered_map<AsmSingleVReg, size_t> totalSSACountMap;
1672    // last SSA ids map from returns
1673    RetSSAIdMap retSSAIdMap;
1674    // last SSA ids in current way in code flow
1675    std::unordered_map<AsmSingleVReg, size_t> curSSAIdMap;
1676    // routine map - routine datas map, value - last SSA ids map
1677    std::unordered_map<size_t, RoutineData> routineMap;
1678    // key - current res first key, value - previous first key and its flowStack pos
1679    PrevWaysIndexMap prevWaysIndexMap;
1680    // to track ways last block indices pair: block index, flowStackPos)
1681    std::pair<size_t, size_t> lastCommonCacheWayPoint{ SIZE_MAX, SIZE_MAX };
1682    std::vector<bool> isRoutineGen(codeBlocks.size(), false);
1683   
1684    std::vector<bool> waysToCache(codeBlocks.size(), false);
1685    std::vector<bool> flowStackBlocks(codeBlocks.size(), false);
1686    // subroutToCache - true if given block begin subroutine to cache
1687    ResSecondPointsToCache cblocksToCache(codeBlocks.size());
1688    std::vector<bool> visited(codeBlocks.size(), false);
1689    flowStack.push_back({ 0, 0 });
1690    flowStackBlocks[0] = true;
1691    std::unordered_set<size_t> loopBlocks;
1692   
1693    while (!flowStack.empty())
1694    {
1695        FlowStackEntry& entry = flowStack.back();
1696        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1697       
1698        if (entry.nextIndex == 0)
1699        {
1700            // process current block
1701            if (!visited[entry.blockIndex])
1702            {
1703                std::cout << "proc: " << entry.blockIndex << std::endl;
1704                visited[entry.blockIndex] = true;
1705               
1706                for (auto& ssaEntry: cblock.ssaInfoMap)
1707                {
1708                    SSAInfo& sinfo = ssaEntry.second;
1709                    if (ssaEntry.first.regVar==nullptr)
1710                    {
1711                        // TODO - pass registers through SSA marking and resolving
1712                        sinfo.ssaIdChange = 0; // zeroing SSA changes
1713                        continue; // no change for registers
1714                    }
1715                   
1716                    reduceSSAIds(curSSAIdMap, retSSAIdMap, routineMap, ssaReplacesMap,
1717                                 entry, ssaEntry);
1718                   
1719                    size_t& ssaId = curSSAIdMap[ssaEntry.first];
1720                   
1721                    size_t& totalSSACount = totalSSACountMap[ssaEntry.first];
1722                    if (totalSSACount == 0)
1723                    {
1724                        // first read before write at all, need change totalcount, ssaId
1725                        ssaId++;
1726                        totalSSACount++;
1727                    }
1728                   
1729                    sinfo.ssaId = totalSSACount;
1730                    sinfo.ssaIdFirst = sinfo.ssaIdChange!=0 ? totalSSACount : SIZE_MAX;
1731                    sinfo.ssaIdBefore = ssaId-1;
1732                   
1733                    totalSSACount += sinfo.ssaIdChange;
1734                    sinfo.ssaIdLast = sinfo.ssaIdChange!=0 ? totalSSACount-1 : SIZE_MAX;
1735                    //totalSSACount = std::max(totalSSACount, ssaId);
1736                    ssaId = totalSSACount;
1737                   
1738                    /*if (!callStack.empty())
1739                        // put data to routine data
1740                        updateRoutineData(routineMap.find(
1741                            callStack.back().routineBlock)->second, ssaEntry);*/
1742                       
1743                    // count read before writes (for cache weight)
1744                    if (sinfo.readBeforeWrite)
1745                        rbwCount++;
1746                    if (sinfo.ssaIdChange!=0)
1747                        wrCount++;
1748                }
1749            }
1750            else
1751            {
1752                // TODO: correctly join this path with routine data
1753                // currently does not include further substitutions in visited path
1754                /*RoutineData* rdata = nullptr;
1755                if (!callStack.empty())
1756                    rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1757               
1758                if (!entry.isCall && rdata != nullptr)
1759                {
1760                    std::cout << "procret2: " << entry.blockIndex << std::endl;
1761                    joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1762                    std::cout << "procretend2" << std::endl;
1763                }*/
1764               
1765                // handle caching for res second point
1766                cblocksToCache.increase(entry.blockIndex);
1767                std::cout << "cblockToCache: " << entry.blockIndex << "=" <<
1768                            cblocksToCache.count(entry.blockIndex) << std::endl;
1769                // back, already visited
1770                flowStackBlocks[entry.blockIndex] = false;
1771                flowStack.pop_back();
1772               
1773                size_t curWayBIndex = flowStack.back().blockIndex;
1774                if (lastCommonCacheWayPoint.first != SIZE_MAX)
1775                {
1776                    // mark point of way to cache (res first point)
1777                    waysToCache[lastCommonCacheWayPoint.first] = true;
1778                    std::cout << "mark to pfcache " <<
1779                            lastCommonCacheWayPoint.first << ", " <<
1780                            curWayBIndex << std::endl;
1781                    prevWaysIndexMap[curWayBIndex] = lastCommonCacheWayPoint;
1782                }
1783                lastCommonCacheWayPoint = { curWayBIndex, flowStack.size()-1 };
1784                std::cout << "lastCcwP: " << curWayBIndex << std::endl;
1785                continue;
1786            }
1787        }
1788       
1789        if (!callStack.empty() &&
1790            entry.blockIndex == callStack.back().callBlock &&
1791            entry.nextIndex-1 == callStack.back().callNextIndex)
1792        {
1793            std::cout << " ret: " << entry.blockIndex << std::endl;
1794            RoutineData& prevRdata =
1795                    routineMap.find(callStack.back().routineBlock)->second;
1796            if (!isRoutineGen[callStack.back().routineBlock])
1797            {
1798                //RoutineData myRoutineData;
1799                createRoutineData(codeBlocks, curSSAIdMap, loopBlocks,
1800                            cblocksToCache, subroutinesCache, routineMap, prevRdata,
1801                            callStack.back().routineBlock);
1802                //prevRdata.compare(myRoutineData);
1803                isRoutineGen[callStack.back().routineBlock] = true;
1804            }
1805            callStack.pop_back(); // just return from call
1806            if (!callStack.empty())
1807                // put to parent routine
1808                joinRoutineData(routineMap.find(callStack.back().routineBlock)->second,
1809                                    prevRdata);
1810        }
1811       
1812        if (entry.nextIndex < cblock.nexts.size())
1813        {
1814            bool isCall = false;
1815            const size_t nextBlock = cblock.nexts[entry.nextIndex].block;
1816            if (cblock.nexts[entry.nextIndex].isCall)
1817            {
1818                std::cout << " call: " << entry.blockIndex << std::endl;
1819                callStack.push_back({ entry.blockIndex, entry.nextIndex, nextBlock });
1820                routineMap.insert({ nextBlock, { } });
1821                isCall = true;
1822            }
1823           
1824            flowStack.push_back({ nextBlock, 0, isCall });
1825            if (flowStackBlocks[nextBlock])
1826                loopBlocks.insert(nextBlock);
1827            flowStackBlocks[nextBlock] = true;
1828            entry.nextIndex++;
1829        }
1830        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1831                // if have any call then go to next block
1832                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1833                 !cblock.haveReturn && !cblock.haveEnd)
1834        {
1835            if (entry.nextIndex!=0) // if back from calls (just return from calls)
1836            {
1837                for (const NextBlock& next: cblock.nexts)
1838                    if (next.isCall)
1839                    {
1840                        //std::cout << "joincall:"<< next.block << std::endl;
1841                        auto it = routineMap.find(next.block); // must find
1842                        initializePrevRetSSAIds(retSSAIdMap, it->second, entry);
1843                        joinRetSSAIdMap(retSSAIdMap, it->second.lastSSAIdMap, next.block);
1844                    }
1845            }
1846            flowStack.push_back({ entry.blockIndex+1, 0, false });
1847            if (flowStackBlocks[entry.blockIndex+1])
1848                loopBlocks.insert(entry.blockIndex+1);
1849            flowStackBlocks[entry.blockIndex+1] = true;
1850            entry.nextIndex++;
1851        }
1852        else // back
1853        {
1854            RoutineData* rdata = nullptr;
1855            if (!callStack.empty())
1856                rdata = &(routineMap.find(callStack.back().routineBlock)->second);
1857           
1858            /*if (cblock.haveReturn && rdata != nullptr)
1859            {
1860                std::cout << "procret: " << entry.blockIndex << std::endl;
1861                joinLastSSAIdMap(rdata->lastSSAIdMap, rdata->curSSAIdMap);
1862                std::cout << "procretend" << std::endl;
1863            }*/
1864           
1865            // revert retSSAIdMap
1866            revertRetSSAIdMap(curSSAIdMap, retSSAIdMap, entry, rdata);
1867            //
1868           
1869            for (const auto& ssaEntry: cblock.ssaInfoMap)
1870            {
1871                if (ssaEntry.first.regVar == nullptr)
1872                    continue;
1873               
1874                size_t& curSSAId = curSSAIdMap[ssaEntry.first];
1875                const size_t nextSSAId = curSSAId;
1876                curSSAId = ssaEntry.second.ssaIdBefore+1;
1877               
1878                std::cout << "popcurnext: " << ssaEntry.first.regVar <<
1879                            ":" << ssaEntry.first.index << ": " <<
1880                            nextSSAId << ", " << curSSAId << std::endl;
1881               
1882                /*if (rdata!=nullptr)
1883                    updateRoutineCurSSAIdMap(rdata, ssaEntry, entry, curSSAId, nextSSAId);
1884                */
1885            }
1886           
1887            std::cout << "pop: " << entry.blockIndex << std::endl;
1888            flowStackBlocks[entry.blockIndex] = false;
1889            flowStack.pop_back();
1890            if (!flowStack.empty() && lastCommonCacheWayPoint.first != SIZE_MAX &&
1891                    lastCommonCacheWayPoint.second >= flowStack.size())
1892            {
1893                lastCommonCacheWayPoint =
1894                        { flowStack.back().blockIndex, flowStack.size()-1 };
1895                std::cout << "POPlastCcwP: " << lastCommonCacheWayPoint.first << std::endl;
1896            }
1897           
1898        }
1899    }
1900   
1901    /**********
1902     * after that, we find points to resolve conflicts
1903     **********/
1904    flowStack.clear();
1905    std::deque<FlowStackEntry2> flowStack2;
1906   
1907    std::fill(visited.begin(), visited.end(), false);
1908    flowStack2.push_back({ 0, 0 });
1909   
1910    SimpleCache<size_t, LastSSAIdMap> resFirstPointsCache(wrCount<<1);
1911    SimpleCache<size_t, RBWSSAIdMap> resSecondPointsCache(rbwCount<<1);
1912   
1913    while (!flowStack2.empty())
1914    {
1915        FlowStackEntry2& entry = flowStack2.back();
1916        CodeBlock& cblock = codeBlocks[entry.blockIndex];
1917       
1918        if (entry.nextIndex == 0)
1919        {
1920            // process current block
1921            if (!visited[entry.blockIndex])
1922                visited[entry.blockIndex] = true;
1923            else
1924            {
1925                resolveSSAConflicts(flowStack2, routineMap, codeBlocks,
1926                            prevWaysIndexMap, waysToCache, cblocksToCache,
1927                            resFirstPointsCache, resSecondPointsCache, ssaReplacesMap);
1928               
1929                // join routine data
1930                /*auto rit = routineMap.find(entry.blockIndex);
1931                if (rit != routineMap.end())
1932                    // just join with current routine data
1933                    joinRoutineData(routineMap.find(
1934                            callStack.back().routineBlock)->second, rit->second);*/
1935                /*if (!callStack.empty())
1936                    collectSSAIdsForCall(flowStack2, callStack, visited,
1937                            routineMap, codeBlocks);*/
1938                // back, already visited
1939                flowStack2.pop_back();
1940                continue;
1941            }
1942        }
1943       
1944        if (entry.nextIndex < cblock.nexts.size())
1945        {
1946            flowStack2.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
1947            entry.nextIndex++;
1948        }
1949        else if (((entry.nextIndex==0 && cblock.nexts.empty()) ||
1950                // if have any call then go to next block
1951                (cblock.haveCalls && entry.nextIndex==cblock.nexts.size())) &&
1952                 !cblock.haveReturn && !cblock.haveEnd)
1953        {
1954            flowStack2.push_back({ entry.blockIndex+1, 0 });
1955            entry.nextIndex++;
1956        }
1957        else // back
1958        {
1959            if (cblocksToCache.count(entry.blockIndex)==2 &&
1960                !resSecondPointsCache.hasKey(entry.blockIndex))
1961                // add to cache
1962                addResSecCacheEntry(routineMap, codeBlocks, resSecondPointsCache,
1963                            entry.blockIndex);
1964            flowStack2.pop_back();
1965        }
1966    }
1967}
1968
1969void AsmRegAllocator::applySSAReplaces()
1970{
1971    /* prepare SSA id replaces */
1972    struct MinSSAGraphNode
1973    {
1974        size_t minSSAId;
1975        bool visited;
1976        std::unordered_set<size_t> nexts;
1977        MinSSAGraphNode() : minSSAId(SIZE_MAX), visited(false) { }
1978    };
1979    struct MinSSAGraphStackEntry
1980    {
1981        std::unordered_map<size_t, MinSSAGraphNode>::iterator nodeIt;
1982        std::unordered_set<size_t>::const_iterator nextIt;
1983        size_t minSSAId;
1984    };
1985   
1986    for (auto& entry: ssaReplacesMap)
1987    {
1988        std::vector<SSAReplace>& replaces = entry.second;
1989        std::sort(replaces.begin(), replaces.end());
1990        replaces.resize(std::unique(replaces.begin(), replaces.end()) - replaces.begin());
1991        std::vector<SSAReplace> newReplaces;
1992       
1993        std::unordered_map<size_t, MinSSAGraphNode> ssaGraphNodes;
1994       
1995        auto it = replaces.begin();
1996        while (it != replaces.end())
1997        {
1998            auto itEnd = std::upper_bound(it, replaces.end(),
1999                            std::make_pair(it->first, size_t(SIZE_MAX)));
2000            {
2001                MinSSAGraphNode& node = ssaGraphNodes[it->first];
2002                node.minSSAId = std::min(node.minSSAId, it->second);
2003                for (auto it2 = it; it2 != itEnd; ++it2)
2004                    node.nexts.insert(it->second);
2005            }
2006            it = itEnd;
2007        }
2008        // propagate min value
2009        std::stack<MinSSAGraphStackEntry> minSSAStack;
2010        for (auto ssaGraphNodeIt = ssaGraphNodes.begin();
2011                 ssaGraphNodeIt!=ssaGraphNodes.end(); )
2012        {
2013            minSSAStack.push({ ssaGraphNodeIt, ssaGraphNodeIt->second.nexts.begin() });
2014            // traverse with minimalize SSA id
2015            while (!minSSAStack.empty())
2016            {
2017                MinSSAGraphStackEntry& entry = minSSAStack.top();
2018                MinSSAGraphNode& node = entry.nodeIt->second;
2019                bool toPop = false;
2020                if (entry.nextIt == node.nexts.begin())
2021                {
2022                    if (!node.visited)
2023                        node.visited = true;
2024                    else
2025                        toPop = true;
2026                }
2027                if (!toPop && entry.nextIt != node.nexts.end())
2028                {
2029                    auto nodeIt = ssaGraphNodes.find(*entry.nextIt);
2030                    if (nodeIt != ssaGraphNodes.end())
2031                    {
2032                        minSSAStack.push({ nodeIt, nodeIt->second.nexts.begin(),
2033                                nodeIt->second.minSSAId });
2034                    }
2035                    ++entry.nextIt;
2036                }
2037                else
2038                {
2039                    node.minSSAId = std::min(node.minSSAId, entry.minSSAId);
2040                    minSSAStack.pop();
2041                    if (!minSSAStack.empty())
2042                    {
2043                        MinSSAGraphStackEntry& pentry = minSSAStack.top();
2044                        pentry.minSSAId = std::min(pentry.minSSAId, node.minSSAId);
2045                    }
2046                }
2047            }
2048            // skip visited nodes
2049            while (ssaGraphNodeIt != ssaGraphNodes.end())
2050                if (!ssaGraphNodeIt->second.visited)
2051                    break;
2052        }
2053       
2054        for (const auto& entry: ssaGraphNodes)
2055            newReplaces.push_back({ entry.first, entry.second.minSSAId });
2056       
2057        std::sort(newReplaces.begin(), newReplaces.end());
2058        entry.second = newReplaces;
2059    }
2060   
2061    /* apply SSA id replaces */
2062    for (CodeBlock& cblock: codeBlocks)
2063        for (auto& ssaEntry: cblock.ssaInfoMap)
2064        {
2065            auto it = ssaReplacesMap.find(ssaEntry.first);
2066            if (it == ssaReplacesMap.end())
2067                continue;
2068            SSAInfo& sinfo = ssaEntry.second;
2069            std::vector<SSAReplace>& replaces = it->second;
2070            if (sinfo.readBeforeWrite)
2071            {
2072                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2073                                 ssaEntry.second.ssaIdBefore);
2074                if (rit != replaces.end())
2075                    sinfo.ssaIdBefore = rit->second; // replace
2076            }
2077            if (sinfo.ssaIdFirst != SIZE_MAX)
2078            {
2079                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2080                                 ssaEntry.second.ssaIdFirst);
2081                if (rit != replaces.end())
2082                    sinfo.ssaIdFirst = rit->second; // replace
2083            }
2084            if (sinfo.ssaIdLast != SIZE_MAX)
2085            {
2086                auto rit = binaryMapFind(replaces.begin(), replaces.end(),
2087                                 ssaEntry.second.ssaIdLast);
2088                if (rit != replaces.end())
2089                    sinfo.ssaIdLast = rit->second; // replace
2090            }
2091        }
2092}
2093
2094struct Liveness
2095{
2096    std::map<size_t, size_t> l;
2097   
2098    Liveness() { }
2099   
2100    void clear()
2101    { l.clear(); }
2102   
2103    void expand(size_t k)
2104    {
2105        if (l.empty())
2106            l.insert(std::make_pair(k, k+1));
2107        else
2108        {
2109            auto it = l.end();
2110            --it;
2111            it->second = k+1;
2112        }
2113    }
2114    void newRegion(size_t k)
2115    {
2116        if (l.empty())
2117            l.insert(std::make_pair(k, k));
2118        else
2119        {
2120            auto it = l.end();
2121            --it;
2122            if (it->first != k && it->second != k)
2123                l.insert(std::make_pair(k, k));
2124        }
2125    }
2126   
2127    void insert(size_t k, size_t k2)
2128    {
2129        auto it1 = l.lower_bound(k);
2130        if (it1!=l.begin() && (it1==l.end() || it1->first>k))
2131            --it1;
2132        if (it1->second < k)
2133            ++it1;
2134        auto it2 = l.lower_bound(k2);
2135        if (it1!=it2)
2136        {
2137            k = std::min(k, it1->first);
2138            k2 = std::max(k2, (--it2)->second);
2139            l.erase(it1, it2);
2140        }
2141        l.insert(std::make_pair(k, k2));
2142    }
2143   
2144    bool contain(size_t t) const
2145    {
2146        auto it = l.lower_bound(t);
2147        if (it==l.begin() && it->first>t)
2148            return false;
2149        if (it==l.end() || it->first>t)
2150            --it;
2151        return it->first<=t && t<it->second;
2152    }
2153   
2154    bool common(const Liveness& b) const
2155    {
2156        auto i = l.begin();
2157        auto j = b.l.begin();
2158        for (; i != l.end() && j != b.l.end();)
2159        {
2160            if (i->first==i->second)
2161            {
2162                ++i;
2163                continue;
2164            }
2165            if (j->first==j->second)
2166            {
2167                ++j;
2168                continue;
2169            }
2170            if (i->first<j->first)
2171            {
2172                if (i->second > j->first)
2173                    return true; // common place
2174                ++i;
2175            }
2176            else
2177            {
2178                if (i->first < j->second)
2179                    return true; // common place
2180                ++j;
2181            }
2182        }
2183        return false;
2184    }
2185};
2186
2187typedef AsmRegAllocator::VarIndexMap VarIndexMap;
2188
2189static cxuint getRegType(size_t regTypesNum, const cxuint* regRanges,
2190            const AsmSingleVReg& svreg)
2191{
2192    cxuint regType; // regtype
2193    if (svreg.regVar!=nullptr)
2194        regType = svreg.regVar->type;
2195    else
2196        for (regType = 0; regType < regTypesNum; regType++)
2197            if (svreg.index >= regRanges[regType<<1] &&
2198                svreg.index < regRanges[(regType<<1)+1])
2199                break;
2200    return regType;
2201}
2202
2203static Liveness& getLiveness(const AsmSingleVReg& svreg, size_t ssaIdIdx,
2204        const AsmRegAllocator::SSAInfo& ssaInfo, std::vector<Liveness>* livenesses,
2205        const VarIndexMap* vregIndexMaps, size_t regTypesNum, const cxuint* regRanges)
2206{
2207    size_t ssaId;
2208    if (svreg.regVar==nullptr)
2209        ssaId = 0;
2210    else if (ssaIdIdx==0)
2211        ssaId = ssaInfo.ssaIdBefore;
2212    else if (ssaIdIdx==1)
2213        ssaId = ssaInfo.ssaIdFirst;
2214    else if (ssaIdIdx<ssaInfo.ssaIdChange)
2215        ssaId = ssaInfo.ssaId + ssaIdIdx-1;
2216    else // last
2217        ssaId = ssaInfo.ssaIdLast;
2218   
2219    cxuint regType = getRegType(regTypesNum, regRanges, svreg); // regtype
2220    const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2221    const std::vector<size_t>& ssaIdIndices =
2222                vregIndexMap.find(svreg)->second;
2223    return livenesses[regType][ssaIdIndices[ssaId]];
2224}
2225
2226typedef std::deque<FlowStackEntry>::const_iterator FlowStackCIter;
2227
2228struct CLRX_INTERNAL VRegLastPos
2229{
2230    size_t ssaId; // last SSA id
2231    std::vector<FlowStackCIter> blockChain; // subsequent blocks that changes SSAId
2232};
2233
2234/* TODO: add handling calls
2235 * handle many start points in this code (for example many kernel's in same code)
2236 * replace sets by vector, and sort and remove same values on demand
2237 */
2238
2239typedef std::unordered_map<AsmSingleVReg, VRegLastPos> LastVRegMap;
2240
2241static void putCrossBlockLivenesses(const std::deque<FlowStackEntry>& flowStack,
2242        const std::vector<CodeBlock>& codeBlocks,
2243        const Array<size_t>& codeBlockLiveTimes, const LastVRegMap& lastVRegMap,
2244        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2245        size_t regTypesNum, const cxuint* regRanges)
2246{
2247    const CodeBlock& cblock = codeBlocks[flowStack.back().blockIndex];
2248    for (const auto& entry: cblock.ssaInfoMap)
2249        if (entry.second.readBeforeWrite)
2250        {
2251            // find last
2252            auto lvrit = lastVRegMap.find(entry.first);
2253            if (lvrit == lastVRegMap.end())
2254                continue; // not found
2255            const VRegLastPos& lastPos = lvrit->second;
2256            FlowStackCIter flit = lastPos.blockChain.back();
2257            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2258            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2259            const std::vector<size_t>& ssaIdIndices =
2260                        vregIndexMap.find(entry.first)->second;
2261            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2262            FlowStackCIter flitEnd = flowStack.end();
2263            --flitEnd; // before last element
2264            // insert live time to last seen position
2265            const CodeBlock& lastBlk = codeBlocks[flit->blockIndex];
2266            size_t toLiveCvt = codeBlockLiveTimes[flit->blockIndex] - lastBlk.start;
2267            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2268                    toLiveCvt + lastBlk.end);
2269            for (++flit; flit != flitEnd; ++flit)
2270            {
2271                const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2272                size_t blockLiveTime = codeBlockLiveTimes[flit->blockIndex];
2273                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2274            }
2275        }
2276}
2277
2278static void putCrossBlockForLoop(const std::deque<FlowStackEntry>& flowStack,
2279        const std::vector<CodeBlock>& codeBlocks,
2280        const Array<size_t>& codeBlockLiveTimes,
2281        std::vector<Liveness>* livenesses, const VarIndexMap* vregIndexMaps,
2282        size_t regTypesNum, const cxuint* regRanges)
2283{
2284    auto flitStart = flowStack.end();
2285    --flitStart;
2286    size_t curBlock = flitStart->blockIndex;
2287    // find step in way
2288    while (flitStart->blockIndex != curBlock) --flitStart;
2289    auto flitEnd = flowStack.end();
2290    --flitEnd;
2291    std::unordered_map<AsmSingleVReg, std::pair<size_t, size_t> > varMap;
2292   
2293    // collect var to check
2294    size_t flowPos = 0;
2295    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2296    {
2297        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2298        for (const auto& entry: cblock.ssaInfoMap)
2299        {
2300            const SSAInfo& sinfo = entry.second;
2301            size_t lastSSAId = (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2302                    (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2303            varMap[entry.first] = { lastSSAId, flowPos };
2304        }
2305    }
2306    // find connections
2307    flowPos = 0;
2308    for (auto flit = flitStart; flit != flitEnd; ++flit, flowPos++)
2309    {
2310        const CodeBlock& cblock = codeBlocks[flit->blockIndex];
2311        for (const auto& entry: cblock.ssaInfoMap)
2312        {
2313            const SSAInfo& sinfo = entry.second;
2314            auto varMapIt = varMap.find(entry.first);
2315            if (!sinfo.readBeforeWrite || varMapIt == varMap.end() ||
2316                flowPos > varMapIt->second.second ||
2317                sinfo.ssaIdBefore != varMapIt->second.first)
2318                continue;
2319            // just connect
2320           
2321            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2322            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2323            const std::vector<size_t>& ssaIdIndices =
2324                        vregIndexMap.find(entry.first)->second;
2325            Liveness& lv = livenesses[regType][ssaIdIndices[entry.second.ssaIdBefore]];
2326           
2327            if (flowPos == varMapIt->second.second)
2328            {
2329                // fill whole loop
2330                for (auto flit2 = flitStart; flit != flitEnd; ++flit)
2331                {
2332                    const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2333                    size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2334                    lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2335                }
2336                continue;
2337            }
2338           
2339            size_t flowPos2 = 0;
2340            for (auto flit2 = flitStart; flowPos2 < flowPos; ++flit2, flowPos++)
2341            {
2342                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2343                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2344                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2345            }
2346            // insert liveness for last block in loop of last SSAId (prev round)
2347            auto flit2 = flitStart + flowPos;
2348            const CodeBlock& firstBlk = codeBlocks[flit2->blockIndex];
2349            size_t toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - firstBlk.start;
2350            lv.insert(codeBlockLiveTimes[flit2->blockIndex],
2351                    firstBlk.ssaInfoMap.find(entry.first)->second.firstPos + toLiveCvt);
2352            // insert liveness for first block in loop of last SSAId
2353            flit2 = flitStart + (varMapIt->second.second+1);
2354            const CodeBlock& lastBlk = codeBlocks[flit2->blockIndex];
2355            toLiveCvt = codeBlockLiveTimes[flit2->blockIndex] - lastBlk.start;
2356            lv.insert(lastBlk.ssaInfoMap.find(entry.first)->second.lastPos + toLiveCvt,
2357                    toLiveCvt + lastBlk.end);
2358            // fill up loop end
2359            for (++flit2; flit2 != flitEnd; ++flit2)
2360            {
2361                const CodeBlock& cblock = codeBlocks[flit2->blockIndex];
2362                size_t blockLiveTime = codeBlockLiveTimes[flit2->blockIndex];
2363                lv.insert(blockLiveTime, cblock.end-cblock.start + blockLiveTime);
2364            }
2365        }
2366    }
2367}
2368
2369struct LiveBlock
2370{
2371    size_t start;
2372    size_t end;
2373    size_t vidx;
2374   
2375    bool operator==(const LiveBlock& b) const
2376    { return start==b.start && end==b.end && vidx==b.vidx; }
2377   
2378    bool operator<(const LiveBlock& b) const
2379    { return start<b.start || (start==b.start &&
2380            (end<b.end || (end==b.end && vidx<b.vidx))); }
2381};
2382
2383typedef AsmRegAllocator::LinearDep LinearDep;
2384typedef AsmRegAllocator::EqualToDep EqualToDep;
2385typedef std::unordered_map<size_t, LinearDep> LinearDepMap;
2386typedef std::unordered_map<size_t, EqualToDep> EqualToDepMap;
2387
2388static void addUsageDeps(const cxbyte* ldeps, const cxbyte* edeps, cxuint rvusNum,
2389            const AsmRegVarUsage* rvus, LinearDepMap* ldepsOut,
2390            EqualToDepMap* edepsOut, const VarIndexMap* vregIndexMaps,
2391            std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap,
2392            size_t regTypesNum, const cxuint* regRanges)
2393{
2394    // add linear deps
2395    cxuint count = ldeps[0];
2396    cxuint pos = 1;
2397    cxbyte rvuAdded = 0;
2398    for (cxuint i = 0; i < count; i++)
2399    {
2400        cxuint ccount = ldeps[pos++];
2401        std::vector<size_t> vidxes;
2402        cxuint regType = UINT_MAX;
2403        cxbyte align = rvus[ldeps[pos]].align;
2404        for (cxuint j = 0; j < ccount; j++)
2405        {
2406            rvuAdded |= 1U<<ldeps[pos];
2407            const AsmRegVarUsage& rvu = rvus[ldeps[pos++]];
2408            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2409            {
2410                AsmSingleVReg svreg = {rvu.regVar, k};
2411                auto sit = ssaIdIdxMap.find(svreg);
2412                if (regType==UINT_MAX)
2413                    regType = getRegType(regTypesNum, regRanges, svreg);
2414                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2415                const std::vector<size_t>& ssaIdIndices =
2416                            vregIndexMap.find(svreg)->second;
2417                // push variable index
2418                vidxes.push_back(ssaIdIndices[sit->second]);
2419            }
2420        }
2421        ldepsOut[regType][vidxes[0]].align = align;
2422        for (size_t k = 1; k < vidxes.size(); k++)
2423        {
2424            ldepsOut[regType][vidxes[k-1]].nextVidxes.push_back(vidxes[k]);
2425            ldepsOut[regType][vidxes[k]].prevVidxes.push_back(vidxes[k-1]);
2426        }
2427    }
2428    // add single arg linear dependencies
2429    for (cxuint i = 0; i < rvusNum; i++)
2430        if ((rvuAdded & (1U<<i)) == 0 && rvus[i].rstart+1<rvus[i].rend)
2431        {
2432            const AsmRegVarUsage& rvu = rvus[i];
2433            std::vector<size_t> vidxes;
2434            cxuint regType = UINT_MAX;
2435            for (uint16_t k = rvu.rstart; k < rvu.rend; k++)
2436            {
2437                AsmSingleVReg svreg = {rvu.regVar, k};
2438                auto sit = ssaIdIdxMap.find(svreg);
2439                if (regType==UINT_MAX)
2440                    regType = getRegType(regTypesNum, regRanges, svreg);
2441                const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2442                const std::vector<size_t>& ssaIdIndices =
2443                            vregIndexMap.find(svreg)->second;
2444                // push variable index
2445                vidxes.push_back(ssaIdIndices[sit->second]);
2446            }
2447            for (size_t j = 1; j < vidxes.size(); j++)
2448            {
2449                ldepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2450                ldepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2451            }
2452        }
2453       
2454    /* equalTo dependencies */
2455    count = edeps[0];
2456    pos = 1;
2457    for (cxuint i = 0; i < count; i++)
2458    {
2459        cxuint ccount = edeps[pos++];
2460        std::vector<size_t> vidxes;
2461        cxuint regType = UINT_MAX;
2462        for (cxuint j = 0; j < ccount; j++)
2463        {
2464            const AsmRegVarUsage& rvu = rvus[edeps[pos++]];
2465            // only one register should be set for equalTo depencencies
2466            // other registers in range will be resolved by linear dependencies
2467            AsmSingleVReg svreg = {rvu.regVar, rvu.rstart};
2468            auto sit = ssaIdIdxMap.find(svreg);
2469            if (regType==UINT_MAX)
2470                regType = getRegType(regTypesNum, regRanges, svreg);
2471            const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2472            const std::vector<size_t>& ssaIdIndices =
2473                        vregIndexMap.find(svreg)->second;
2474            // push variable index
2475            vidxes.push_back(ssaIdIndices[sit->second]);
2476        }
2477        for (size_t j = 1; j < vidxes.size(); j++)
2478        {
2479            edepsOut[regType][vidxes[j-1]].nextVidxes.push_back(vidxes[j]);
2480            edepsOut[regType][vidxes[j]].prevVidxes.push_back(vidxes[j-1]);
2481        }
2482    }
2483}
2484
2485typedef std::unordered_map<size_t, EqualToDep>::const_iterator EqualToDepMapCIter;
2486
2487struct EqualStackEntry
2488{
2489    EqualToDepMapCIter etoDepIt;
2490    size_t nextIdx; // over nextVidxes size, then prevVidxes[nextIdx-nextVidxes.size()]
2491};
2492
2493void AsmRegAllocator::createInterferenceGraph(ISAUsageHandler& usageHandler)
2494{
2495    // construct var index maps
2496    size_t graphVregsCounts[MAX_REGTYPES_NUM];
2497    std::fill(graphVregsCounts, graphVregsCounts+regTypesNum, 0);
2498    cxuint regRanges[MAX_REGTYPES_NUM*2];
2499    size_t regTypesNum;
2500    assembler.isaAssembler->getRegisterRanges(regTypesNum, regRanges);
2501   
2502    for (const CodeBlock& cblock: codeBlocks)
2503        for (const auto& entry: cblock.ssaInfoMap)
2504        {
2505            const SSAInfo& sinfo = entry.second;
2506            cxuint regType = getRegType(regTypesNum, regRanges, entry.first);
2507            VarIndexMap& vregIndices = vregIndexMaps[regType];
2508            size_t& graphVregsCount = graphVregsCounts[regType];
2509            std::vector<size_t>& ssaIdIndices = vregIndices[entry.first];
2510            size_t ssaIdCount = 0;
2511            if (sinfo.readBeforeWrite)
2512                ssaIdCount = sinfo.ssaIdBefore+1;
2513            if (sinfo.ssaIdChange!=0)
2514            {
2515                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdLast+1);
2516                ssaIdCount = std::max(ssaIdCount, sinfo.ssaIdFirst+1);
2517            }
2518            if (ssaIdIndices.size() < ssaIdCount)
2519                ssaIdIndices.resize(ssaIdCount, SIZE_MAX);
2520           
2521            if (sinfo.readBeforeWrite)
2522                ssaIdIndices[sinfo.ssaIdBefore] = graphVregsCount++;
2523            if (sinfo.ssaIdChange!=0)
2524            {
2525                // fill up ssaIdIndices (with graph Ids)
2526                ssaIdIndices[sinfo.ssaIdFirst] = graphVregsCount++;
2527                for (size_t ssaId = sinfo.ssaId+1;
2528                        ssaId < sinfo.ssaId+sinfo.ssaIdChange-1; ssaId++)
2529                    ssaIdIndices[ssaId] = graphVregsCount++;
2530                ssaIdIndices[sinfo.ssaIdLast] = graphVregsCount++;
2531            }
2532        }
2533   
2534    // construct vreg liveness
2535    std::deque<FlowStackEntry> flowStack;
2536    std::vector<bool> visited(codeBlocks.size(), false);
2537    // hold last vreg ssaId and position
2538    LastVRegMap lastVRegMap;
2539    // hold start live time position for every code block
2540    Array<size_t> codeBlockLiveTimes(codeBlocks.size());
2541    std::unordered_set<size_t> blockInWay;
2542   
2543    std::vector<Liveness> livenesses[MAX_REGTYPES_NUM];
2544   
2545    for (size_t i = 0; i < regTypesNum; i++)
2546        livenesses[i].resize(graphVregsCounts[i]);
2547   
2548    size_t curLiveTime = 0;
2549   
2550    while (!flowStack.empty())
2551    {
2552        FlowStackEntry& entry = flowStack.back();
2553        CodeBlock& cblock = codeBlocks[entry.blockIndex];
2554       
2555        if (entry.nextIndex == 0)
2556        {
2557            // process current block
2558            if (!blockInWay.insert(entry.blockIndex).second)
2559            {
2560                // if loop
2561                putCrossBlockForLoop(flowStack, codeBlocks, codeBlockLiveTimes, 
2562                        livenesses, vregIndexMaps, regTypesNum, regRanges);
2563                flowStack.pop_back();
2564                continue;
2565            }
2566           
2567            codeBlockLiveTimes[entry.blockIndex] = curLiveTime;
2568            putCrossBlockLivenesses(flowStack, codeBlocks, codeBlockLiveTimes, 
2569                    lastVRegMap, livenesses, vregIndexMaps, regTypesNum, regRanges);
2570           
2571            for (const auto& sentry: cblock.ssaInfoMap)
2572            {
2573                const SSAInfo& sinfo = sentry.second;
2574                // update
2575                size_t lastSSAId =  (sinfo.ssaIdChange != 0) ? sinfo.ssaIdLast :
2576                        (sinfo.readBeforeWrite) ? sinfo.ssaIdBefore : 0;
2577                FlowStackCIter flit = flowStack.end();
2578                --flit; // to last position
2579                auto res = lastVRegMap.insert({ sentry.first, 
2580                            { lastSSAId, { flit } } });
2581                if (!res.second) // if not first seen, just update
2582                {
2583                    // update last
2584                    res.first->second.ssaId = lastSSAId;
2585                    res.first->second.blockChain.push_back(flit);
2586                }
2587            }
2588           
2589            size_t curBlockLiveEnd = cblock.end - cblock.start + curLiveTime;
2590            if (!visited[entry.blockIndex])
2591            {
2592                visited[entry.blockIndex] = true;
2593                std::unordered_map<AsmSingleVReg, size_t> ssaIdIdxMap;
2594                AsmRegVarUsage instrRVUs[8];
2595                cxuint instrRVUsCount = 0;
2596               
2597                size_t oldOffset = cblock.usagePos.readOffset;
2598                std::vector<AsmSingleVReg> readSVRegs;
2599                std::vector<AsmSingleVReg> writtenSVRegs;
2600               
2601                usageHandler.setReadPos(cblock.usagePos);
2602                // register in liveness
2603                while (true)
2604                {
2605                    AsmRegVarUsage rvu = { 0U, nullptr, 0U, 0U };
2606                    size_t liveTimeNext = curBlockLiveEnd;
2607                    if (usageHandler.hasNext())
2608                    {
2609                        rvu = usageHandler.nextUsage();
2610                        if (rvu.offset >= cblock.end)
2611                            break;
2612                        if (!rvu.useRegMode)
2613                            instrRVUs[instrRVUsCount++] = rvu;
2614                        liveTimeNext = std::min(rvu.offset, cblock.end) -
2615                                cblock.start + curLiveTime;
2616                    }
2617                    size_t liveTime = oldOffset - cblock.start + curLiveTime;
2618                    if (!usageHandler.hasNext() || rvu.offset >= oldOffset)
2619                    {
2620                        // apply to liveness
2621                        for (AsmSingleVReg svreg: readSVRegs)
2622                        {
2623                            Liveness& lv = getLiveness(svreg, ssaIdIdxMap[svreg],
2624                                    cblock.ssaInfoMap.find(svreg)->second,
2625                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2626                            if (!lv.l.empty() && (--lv.l.end())->first < curLiveTime)
2627                                lv.newRegion(curLiveTime); // begin region from this block
2628                            lv.expand(liveTime);
2629                        }
2630                        for (AsmSingleVReg svreg: writtenSVRegs)
2631                        {
2632                            size_t& ssaIdIdx = ssaIdIdxMap[svreg];
2633                            ssaIdIdx++;
2634                            SSAInfo& sinfo = cblock.ssaInfoMap.find(svreg)->second;
2635                            Liveness& lv = getLiveness(svreg, ssaIdIdx, sinfo,
2636                                    livenesses, vregIndexMaps, regTypesNum, regRanges);
2637                            if (liveTimeNext != curBlockLiveEnd)
2638                                // because live after this instr
2639                                lv.newRegion(liveTimeNext);
2640                            sinfo.lastPos = liveTimeNext - curLiveTime + cblock.start;
2641                        }
2642                        // get linear deps and equal to
2643                        cxbyte lDeps[16];
2644                        cxbyte eDeps[16];
2645                        usageHandler.getUsageDependencies(instrRVUsCount, instrRVUs,
2646                                        lDeps, eDeps);
2647                       
2648                        addUsageDeps(lDeps, eDeps, instrRVUsCount, instrRVUs,
2649                                linearDepMaps, equalToDepMaps, vregIndexMaps, ssaIdIdxMap,
2650                                regTypesNum, regRanges);
2651                       
2652                        readSVRegs.clear();
2653                        writtenSVRegs.clear();
2654                        if (!usageHandler.hasNext())
2655                            break; // end
2656                        oldOffset = rvu.offset;
2657                        instrRVUsCount = 0;
2658                    }
2659                    if (rvu.offset >= cblock.end)
2660                        break;
2661                   
2662                    for (uint16_t rindex = rvu.rstart; rindex < rvu.rend; rindex++)
2663                    {
2664                        // per register/singlvreg
2665                        AsmSingleVReg svreg{ rvu.regVar, rindex };
2666                        if (rvu.rwFlags == ASMRVU_WRITE && rvu.regField == ASMFIELD_NONE)
2667                            writtenSVRegs.push_back(svreg);
2668                        else // read or treat as reading // expand previous region
2669                            readSVRegs.push_back(svreg);
2670                    }
2671                }
2672                curLiveTime += cblock.end-cblock.start;
2673            }
2674            else
2675            {
2676                // back, already visited
2677                flowStack.pop_back();
2678                continue;
2679            }
2680        }
2681        if (entry.nextIndex < cblock.nexts.size())
2682        {
2683            flowStack.push_back({ cblock.nexts[entry.nextIndex].block, 0 });
2684            entry.nextIndex++;
2685        }
2686        else if (entry.nextIndex==0 && cblock.nexts.empty() && !cblock.haveEnd)
2687        {
2688            flowStack.push_back({ entry.blockIndex+1, 0 });
2689            entry.nextIndex++;
2690        }
2691        else // back
2692        {
2693            // revert lastSSAIdMap
2694            blockInWay.erase(entry.blockIndex);
2695            flowStack.pop_back();
2696            if (!flowStack.empty())
2697            {
2698                for (const auto& sentry: cblock.ssaInfoMap)
2699                {
2700                    auto lvrit = lastVRegMap.find(sentry.first);
2701                    if (lvrit != lastVRegMap.end())
2702                    {
2703                        VRegLastPos& lastPos = lvrit->second;
2704                        lastPos.ssaId = sentry.second.ssaIdBefore;
2705                        lastPos.blockChain.pop_back();
2706                        if (lastPos.blockChain.empty()) // just remove from lastVRegs
2707                            lastVRegMap.erase(lvrit);
2708                    }
2709                }
2710            }
2711        }
2712    }
2713   
2714    /// construct liveBlockMaps
2715    std::set<LiveBlock> liveBlockMaps[MAX_REGTYPES_NUM];
2716    for (size_t regType = 0; regType < regTypesNum; regType++)
2717    {
2718        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2719        std::vector<Liveness>& liveness = livenesses[regType];
2720        for (size_t li = 0; li < liveness.size(); li++)
2721        {
2722            Liveness& lv = liveness[li];
2723            for (const std::pair<size_t, size_t>& blk: lv.l)
2724                if (blk.first != blk.second)
2725                    liveBlockMap.insert({ blk.first, blk.second, li });
2726            lv.clear();
2727        }
2728        liveness.clear();
2729    }
2730   
2731    // create interference graphs
2732    for (size_t regType = 0; regType < regTypesNum; regType++)
2733    {
2734        InterGraph& interGraph = interGraphs[regType];
2735        interGraph.resize(graphVregsCounts[regType]);
2736        std::set<LiveBlock>& liveBlockMap = liveBlockMaps[regType];
2737       
2738        auto lit = liveBlockMap.begin();
2739        size_t rangeStart = 0;
2740        if (lit != liveBlockMap.end())
2741            rangeStart = lit->start;
2742        while (lit != liveBlockMap.end())
2743        {
2744            const size_t blkStart = lit->start;
2745            const size_t blkEnd = lit->end;
2746            size_t rangeEnd = blkEnd;
2747            auto liStart = liveBlockMap.lower_bound({ rangeStart, 0, 0 });
2748            auto liEnd = liveBlockMap.lower_bound({ rangeEnd, 0, 0 });
2749            // collect from this range, variable indices
2750            std::set<size_t> varIndices;
2751            for (auto lit2 = liStart; lit2 != liEnd; ++lit2)
2752                varIndices.insert(lit2->vidx);
2753            // push to intergraph as full subgGraph
2754            for (auto vit = varIndices.begin(); vit != varIndices.end(); ++vit)
2755                for (auto vit2 = varIndices.begin(); vit2 != varIndices.end(); ++vit2)
2756                    if (vit != vit2)
2757                        interGraph[*vit].insert(*vit2);
2758            // go to next live blocks
2759            rangeStart = rangeEnd;
2760            for (; lit != liveBlockMap.end(); ++lit)
2761                if (lit->start != blkStart && lit->end != blkEnd)
2762                    break;
2763            if (lit == liveBlockMap.end())
2764                break; //
2765            rangeStart = std::max(rangeStart, lit->start);
2766        }
2767    }
2768   
2769    /*
2770     * resolve equalSets
2771     */
2772    for (cxuint regType = 0; regType < regTypesNum; regType++)
2773    {
2774        InterGraph& interGraph = interGraphs[regType];
2775        const size_t nodesNum = interGraph.size();
2776        const std::unordered_map<size_t, EqualToDep>& etoDepMap = equalToDepMaps[regType];
2777        std::vector<bool> visited(nodesNum, false);
2778        std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2779       
2780        for (size_t v = 0; v < nodesNum;)
2781        {
2782            auto it = etoDepMap.find(v);
2783            if (it == etoDepMap.end())
2784            {
2785                // is not regvar in equalTo dependencies
2786                v++;
2787                continue;
2788            }
2789           
2790            std::stack<EqualStackEntry> etoStack;
2791            etoStack.push(EqualStackEntry{ it, 0 });
2792           
2793            std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2794            const size_t equalSetIndex = equalSetList.size();
2795            equalSetList.push_back(std::vector<size_t>());
2796            std::vector<size_t>& equalSet = equalSetList.back();
2797           
2798            // traverse by this
2799            while (!etoStack.empty())
2800            {
2801                EqualStackEntry& entry = etoStack.top();
2802                size_t vidx = entry.etoDepIt->first; // node index, vreg index
2803                const EqualToDep& eToDep = entry.etoDepIt->second;
2804                if (entry.nextIdx == 0)
2805                {
2806                    if (!visited[vidx])
2807                    {
2808                        // push to this equalSet
2809                        equalSetMap.insert({ vidx, equalSetIndex });
2810                        equalSet.push_back(vidx);
2811                    }
2812                    else
2813                    {
2814                        // already visited
2815                        etoStack.pop();
2816                        continue;
2817                    }
2818                }
2819               
2820                if (entry.nextIdx < eToDep.nextVidxes.size())
2821                {
2822                    auto nextIt = etoDepMap.find(eToDep.nextVidxes[entry.nextIdx]);
2823                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2824                    entry.nextIdx++;
2825                }
2826                else if (entry.nextIdx < eToDep.nextVidxes.size()+eToDep.prevVidxes.size())
2827                {
2828                    auto nextIt = etoDepMap.find(eToDep.prevVidxes[
2829                                entry.nextIdx - eToDep.nextVidxes.size()]);
2830                    etoStack.push(EqualStackEntry{ nextIt, 0 });
2831                    entry.nextIdx++;
2832                }
2833                else
2834                    etoStack.pop();
2835            }
2836           
2837            // to first already added node (var)
2838            while (v < nodesNum && !visited[v]) v++;
2839        }
2840    }
2841}
2842
2843typedef AsmRegAllocator::InterGraph InterGraph;
2844
2845struct CLRX_INTERNAL SDOLDOCompare
2846{
2847    const InterGraph& interGraph;
2848    const Array<size_t>& sdoCounts;
2849   
2850    SDOLDOCompare(const InterGraph& _interGraph, const Array<size_t>&_sdoCounts)
2851        : interGraph(_interGraph), sdoCounts(_sdoCounts)
2852    { }
2853   
2854    bool operator()(size_t a, size_t b) const
2855    {
2856        if (sdoCounts[a] > sdoCounts[b])
2857            return true;
2858        return interGraph[a].size() > interGraph[b].size();
2859    }
2860};
2861
2862/* algorithm to allocate regranges:
2863 * from smallest regranges to greatest regranges:
2864 *   choosing free register: from smallest free regranges
2865 *      to greatest regranges:
2866 *         in this same regrange:
2867 *               try to find free regs in regranges
2868 *               try to link free ends of two distinct regranges
2869 */
2870
2871void AsmRegAllocator::colorInterferenceGraph()
2872{
2873    const GPUArchitecture arch = getGPUArchitectureFromDeviceType(
2874                    assembler.deviceType);
2875   
2876    for (size_t regType = 0; regType < regTypesNum; regType++)
2877    {
2878        const size_t maxColorsNum = getGPUMaxRegistersNum(arch, regType);
2879        InterGraph& interGraph = interGraphs[regType];
2880        const VarIndexMap& vregIndexMap = vregIndexMaps[regType];
2881        Array<cxuint>& gcMap = graphColorMaps[regType];
2882        const std::vector<std::vector<size_t> >& equalSetList = equalSetLists[regType];
2883        const std::unordered_map<size_t, size_t>& equalSetMap =  equalSetMaps[regType];
2884       
2885        const size_t nodesNum = interGraph.size();
2886        gcMap.resize(nodesNum);
2887        std::fill(gcMap.begin(), gcMap.end(), cxuint(UINT_MAX));
2888        Array<size_t> sdoCounts(nodesNum);
2889        std::fill(sdoCounts.begin(), sdoCounts.end(), 0);
2890       
2891        SDOLDOCompare compare(interGraph, sdoCounts);
2892        std::set<size_t, SDOLDOCompare> nodeSet(compare);
2893        for (size_t i = 0; i < nodesNum; i++)
2894            nodeSet.insert(i);
2895       
2896        cxuint colorsNum = 0;
2897        // firstly, allocate real registers
2898        for (const auto& entry: vregIndexMap)
2899            if (entry.first.regVar == nullptr)
2900                gcMap[entry.second[0]] = colorsNum++;
2901       
2902        for (size_t colored = 0; colored < nodesNum; colored++)
2903        {
2904            size_t node = *nodeSet.begin();
2905            if (gcMap[node] != UINT_MAX)
2906                continue; // already colored
2907            size_t color = 0;
2908            std::vector<size_t> equalNodes;
2909            equalNodes.push_back(node); // only one node, if equalSet not found
2910            auto equalSetMapIt = equalSetMap.find(node);
2911            if (equalSetMapIt != equalSetMap.end())
2912                // found, get equal set from equalSetList
2913                equalNodes = equalSetList[equalSetMapIt->second];
2914           
2915            for (color = 0; color <= colorsNum; color++)
2916            {
2917                // find first usable color
2918                bool thisSame = false;
2919                for (size_t nb: interGraph[node])
2920                    if (gcMap[nb] == color)
2921                    {
2922                        thisSame = true;
2923                        break;
2924                    }
2925                if (!thisSame)
2926                    break;
2927            }
2928            if (color==colorsNum) // add new color if needed
2929            {
2930                if (colorsNum >= maxColorsNum)
2931                    throw AsmException("Too many register is needed");
2932                colorsNum++;
2933            }
2934           
2935            for (size_t nextNode: equalNodes)
2936                gcMap[nextNode] = color;
2937            // update SDO for node
2938            bool colorExists = false;
2939            for (size_t node: equalNodes)
2940            {
2941                for (size_t nb: interGraph[node])
2942                    if (gcMap[nb] == color)
2943                    {
2944                        colorExists = true;
2945                        break;
2946                    }
2947                if (!colorExists)
2948                    sdoCounts[node]++;
2949            }
2950            // update SDO for neighbors
2951            for (size_t node: equalNodes)
2952                for (size_t nb: interGraph[node])
2953                {
2954                    colorExists = false;
2955                    for (size_t nb2: interGraph[nb])
2956                        if (gcMap[nb2] == color)
2957                        {
2958                            colorExists = true;
2959                            break;
2960                        }
2961                    if (!colorExists)
2962                    {
2963                        if (gcMap[nb] == UINT_MAX)
2964                            nodeSet.erase(nb);  // before update we erase from nodeSet
2965                        sdoCounts[nb]++;
2966                        if (gcMap[nb] == UINT_MAX)
2967                            nodeSet.insert(nb); // after update, insert again
2968                    }
2969                }
2970           
2971            for (size_t nextNode: equalNodes)
2972                gcMap[nextNode] = color;
2973        }
2974    }
2975}
2976
2977void AsmRegAllocator::allocateRegisters(cxuint sectionId)
2978{
2979    // before any operation, clear all
2980    codeBlocks.clear();
2981    for (size_t i = 0; i < MAX_REGTYPES_NUM; i++)
2982    {
2983        vregIndexMaps[i].clear();
2984        interGraphs[i].clear();
2985        linearDepMaps[i].clear();
2986        equalToDepMaps[i].clear();
2987        graphColorMaps[i].clear();
2988        equalSetMaps[i].clear();
2989        equalSetLists[i].clear();
2990    }
2991    ssaReplacesMap.clear();
2992    cxuint maxRegs[MAX_REGTYPES_NUM];
2993    assembler.isaAssembler->getMaxRegistersNum(regTypesNum, maxRegs);
2994   
2995    // set up
2996    const AsmSection& section = assembler.sections[sectionId];
2997    createCodeStructure(section.codeFlow, section.content.size(), section.content.data());
2998    createSSAData(*section.usageHandler);
2999    applySSAReplaces();
3000    createInterferenceGraph(*section.usageHandler);
3001    colorInterferenceGraph();
3002}
Note: See TracBrowser for help on using the repository browser.